CN102609954A - 对人类目标跟踪的确认分析 - Google Patents

对人类目标跟踪的确认分析 Download PDF

Info

Publication number
CN102609954A
CN102609954A CN201110443266XA CN201110443266A CN102609954A CN 102609954 A CN102609954 A CN 102609954A CN 201110443266X A CN201110443266X A CN 201110443266XA CN 201110443266 A CN201110443266 A CN 201110443266A CN 102609954 A CN102609954 A CN 102609954A
Authority
CN
China
Prior art keywords
data
depth
analysis
montage
streamline
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201110443266XA
Other languages
English (en)
Other versions
CN102609954B (zh
Inventor
J·D·普尔西弗
P·穆哈吉尔
N·A·艾德格米
S·刘
P·O·科克
J·C·福斯特
R·O·F·小福布斯
S·P·斯塔赫尼克
T·拉万德
J·贝尔托拉米
M·T·詹尼
K·T·胡耶恩
C·C·马雷
S·D·佩罗
R·J·菲茨杰拉德
W·R·比森
C·C·佩普尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of CN102609954A publication Critical patent/CN102609954A/zh
Application granted granted Critical
Publication of CN102609954B publication Critical patent/CN102609954B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

本发明提供了对人类目标跟踪的确认分析。提供了用于测试目标识别、分析和跟踪系统的技术。提供了记录和合成的深度剪辑以及相关联地面实况跟踪数据的可搜索储存库。各自包括目标识别、分析和跟踪流水线的至少一个实例的一个或多个处理设备使用储存库中的数据来分析跟踪流水线的性能。分析引擎响应于测试流水线的请求来提供可搜索集合的至少子集,并且接收来自可搜索集合的至少子集上的流水线的跟踪数据输出。报告生成器输出对跟踪数据相对于至少子集中的地面实况的分析,以提供相对于地面实况的误差的输出。

Description

对人类目标跟踪的确认分析
技术领域
本发明涉及对人类目标跟踪的确认分析。
背景技术
已创建了使用捕捉设备来确定场景中的对象和人类的位置和移动的目标识别、分析和跟踪系统。捕捉设备可包括深度相机、RGB相机和音频检测器,这些设备将信息提供给包括硬件和软件元素的捕捉处理流水线。处理流水线将运动识别、分析和运动跟踪数据提供给能够使用该数据的应用。示例性应用包括游戏和计算机界面。
跟踪流水线中的准确性是合乎需要的。准确性取决于对于各种类型的用户(男的、女的、高的、矮的等)确定视野内各种类型的用户运动的移动的能力。在提供商业上可行的设备时实现跟踪流水线中的准确性是特别困难的,其中要跟踪的用户的运动和类型的可能变化明显大于测试或学术环境中的可能变化。
发明内容
在一个实施例中,提供了一种用于测试目标识别、分析和跟踪系统的技术。一种用于验证目标识别、分析和跟踪系统的准确性的方法包括创建测试数据和提供测试数据的可搜索集合。测试数据可以是具有相关联地面实况(groundtruth)的记录和/或合成的深度剪辑。地面实况包括人类的关节部位与已被验证为准确的骨架跟踪信息的关联。响应于测试流水线的请求,将测试数据的可搜索集合的至少子集提供给流水线。从流水线输出跟踪数据,并且对跟踪数据相对于地面实况的分析提供了对流水线代码的准确性的指示。
一种用于验证目标识别、分析和跟踪系统的准确性的系统包括记录和合成的深度剪辑以及相关联地面实况的可搜索储存库,其对于测试中的多个处理流水线是可用的。各自包括目标识别、分析和跟踪流水线的至少一个实例的一个或多个处理设备分析测试数据的所选成分。作业控制器提供测试数据的可搜索集合的至少子集来测试流水线,并且分析引擎接收来自可搜索集合的至少子集上的流水线的跟踪数据输出。报告生成器输出对跟踪数据相对于至少子集中的地面实况的分析,以提供相对于地面实况的误差的输出。
在本文中描述了使技术呈现为灵活、可缩放和唯一的系统以及方法的许多特征。
提供本发明内容以便以简化的形式介绍在以下具体实施方式中进一步描述的一些概念。本发明内容并非旨在标识所要求保护主题的关键特征或必要特征,也不旨在用于帮助确定所要求保护主题的范围。
附图说明
图1A是示出用于实践本文中所描述的技术的环境的框图。
图1B是用于目标识别、分析和跟踪系统的深度和运动跟踪的整个过程确认分析的流程图。
图2是在图1A的环境中所使用的分析引擎的框图。
图3A示出目标识别、分析和跟踪系统的一个示例实施例。
图3B示出目标识别、分析和跟踪系统的另一示例实施例。
图4示出了可在目标识别、分析和跟踪系统中使用的捕捉设备的一个示例实施例。
图5示出用于表示人类目标的示例性身体模型。
图6A示出用于表示人类目标的示例性骨架模型的基本正视图。
图6B示出用于表示人类目标的示例性骨架模型的斜视图。
图7A是示出用于创建测试数据的过程的流程图。
图7B是目标识别、分析和跟踪系统运动跟踪流水线的一个实施例的高级操作的流程图。
图7C是图7A的模型拟合过程的流程图。
图8示出根据本技术的一个实施例的用于跟踪目标的处理流水线的概念框图。
图9A是示出用于通过手动地标记骨架数据从深度剪辑创建地面实况数据的一个实施例的流程图。
图9B是示出用于使用经校准的传感器来为测试剪辑创建地面实况数据的另一实施例的流程图。
图10是示出将运动捕捉坐标对准到骨架跟踪坐标空间的流程图。
图11是示出合成两个深度剪辑以创建深度图复合物的流程图。
图12A-12J是图11中所示的复合步骤的表示。
图13是示出测试数据的手动注释的流程图。
图14是示出分析测试流水线相对于地面实况数据的输出的流程图。
图15是示出创建测试套件的流程图。
图16示出正在移动的模型。
图17是适于在本技术中使用的一个示例性计算环境。
图18是适于在本技术中使用的另一示例性计算环境。
具体实施方式
提供了允许对目标识别、分析和跟踪系统进行测试的技术。目标识别、分析和跟踪系统可用于识别、分析和/或跟踪诸如用户之类的人类目标。目标识别、分析和跟踪系统包括在硬件和软件中实现以执行识别、分析和跟踪功能的处理流水线。此类系统的设计者需要相对于已知良好的数据集合优化此类系统,并且持续地努力改进此类系统的准确性。
测试系统包括记录和合成的测试数据的庞大集合。测试数据包括多个深度剪辑,这些深度剪辑包括测试数据捕捉会话期间所记录的深度帧的序列。测试数据与运动数据相关以查明深度剪辑的地面实况。测试数据包含流水线或被设计成使用该流水线的特定应用的开发者有兴趣识别的人类的运动和姿势。地面实况反映深度剪辑中的已知准确数据。地面实况可以是不同类型的,包括骨架数据、背景移除数据和地板数据。注释测试数据以允许开发者容易地确定所需深度剪辑并将深度剪辑集合构建到测试套件中。可从现有剪辑及其他三维对象数据(诸如,场景内的静态对象)创建合成的深度剪辑。分析控制器将对测试数据的处理定向到新流水线,接收来自流水线的跟踪结果,并且管理对相对于地面实况的流水线处理的准确性的分析。提供了对各个误差的分析、以及相对于先前流水线的流水线性能的概要。以此方式,该技术针对任一本地处理设备(诸如,Xbox
Figure BSA00000645963700031
控制台)运行对新版本流水线的评估,或者在许多测试控制台之间划分工作。它收集这些结果,并且提供对数据的各种统计分析以有助于标识在某些情形中跟踪时的问题。同样存在用于生成、复合并合成测试数据以形成变量的新组合的可缩放方法。
运动捕捉、运动跟踪、或“运动捕获(mocap)”在本文中互换地使用以描述记录移动和将该移动转换成数字模型。在运动捕捉会话中,每秒对一个或多个行动者的移动采样多次以记录行动者的移动。
运动捕捉数据可以是被转换成三维模型的运动捕捉设备的记录的或组合的输出。运动捕捉系统跟踪空间中的主体相对于其自己的坐标系的一个或多个特征点。捕捉信息可采用任意数量的已知格式。使用具有有源、无源或无标志系统、或者惯性、磁性或机械系统的多个光学系统或非光学系统中的任一个来创建运动捕捉数据。在一个实施例中,该模型由目标识别、分析和跟踪系统中的处理流水线开发。为了验证流水线的准确性,构建该模型和跟踪该模型的移动两者中的流水线的性能与已知良好的骨架跟踪信息作比较。
在本文中,此类已知良好的骨架跟踪信息被称为地面实况数据。一种类型的地面实况数据可通过使用各种技术手动地或自动地跟踪主体的移动并验证骨架模型中所使用的点来开发。其他类型的地面实况包括背景数据和地板位置数据。具有地面实况的深度剪辑随后可用于测试流水线的进一步实现。提供分析度量以允许开发者评估对流水线的各种交互和改变的有效性。
一般而言,如在下文中所描述的,本技术的目标识别、分析和跟踪系统使用深度信息来定义并跟踪在跟踪设备的视野内的用户的运动。生成用户的骨架模型,并且使用模型上的点来跟踪被提供给相应应用的用户的移动,这些应用将数据用于各种目的。骨架模型和骨架模型所跟踪的运动的准确性一般是合乎需要的。
图1A示出其中可使用本技术的环境。图1A是示出各种测试数据源、测试数据存储、以及其中可使用本技术的多个不同类型的测试系统的框图。在一个实施例中,为了创建用于测试数据存储的测试数据,创建测试主体的运动捕捉剪辑,同时使用深度传感器来创建主体的深度剪辑。深度剪辑是深度帧的序列,每一深度帧包括表示单个帧的深度传感器输出的高度值数组。在本文中还讨论创建测试数据的其他方法。
在一个实施例中,使用运动捕捉系统来获取运动捕捉数据。运动捕捉系统111可包括多个已知类型的运动捕捉系统中的任一个。在一个实施例中,运动捕捉系统111是磁性运动捕捉系统,其中多个传感器置于主体的身体上以测量一个或多个发射器所生成的磁场。运动捕捉数据与地面实况的区别在于,运动捕捉数据是传感器相对于运动捕捉系统的位置(以及在一些情况下的定向),其中地面实况是主体的关节相对于深度传感器的位置以及在一些情况下的定向。当使用此类系统时,对同时记录的深度剪辑必须进行具有传感器的运动捕捉系统检测到的位置之间的相关,以生成地面实况。该相关通过运动捕捉系统与深度传感器数据之间的对准和校准来执行。
同样,在图1A中示出可包括记录深度剪辑的深度传感器(诸如,以下所讨论的深度相机426)的深度捕捉系统。
测试数据110至118的各种源可为测试数据储存库102提供测试数据和地面实况。原始运动捕捉数据110是诸如捕捉系统111之类的有源或无源运动捕捉设备所提供的输出。可能还未分析原始运动捕捉数据以提供相关联地面实况信息。深度剪辑112可以是与运动捕捉数据同时记录的数据,或者可在与附随运动捕捉数据不相关联的情况下创建深度剪辑。此类原始深度数据可由注释器手动地审阅,该注释器审阅深度剪辑中的多个帧中的每一个或一部分并且对深度空间中的主体的关节建模。运动捕捉和深度数据的特定源包括游戏开发者运动和深度剪辑114、或者研究者提供的运动和深度剪辑116。游戏开发者剪辑包括应用程序开发者用开发者的游戏所需的运动来特别定义的剪辑。例如,网球游戏可能需要专用于玩网球的运动、以及区分正手击球与地面击球的高准确性。研究剪辑116由研究者提供,以寻求在特定方向上推动流水线的开发。合成深度剪辑118是定义移动情形和场景的现有剪辑的组合,这些组合可能无法以其他方式可用。
地面实况开发115表示运动捕捉数据与深度数据相关以创建地面实况、或由人手动注释深度数据以使关节与深度帧相匹配。
图1A的环境包括各种类型的测试系统,这些测试系统包括用户测试设备130、批测试系统145和自动构建的测试系统140。测试系统130、145、140中的每一个访问数据储存库102,以测试目标识别、分析和跟踪系统所使用的目标识别、分析和跟踪流水线450。参考图7和8来讨论流水线。
测试数据储存库102包括包含深度剪辑的测试数据存储104,以及包含与深度剪辑相关联的地面实况的地面实况数据存储105。应当理解,可将数据存储104和105组合成单个数据存储。
测试数据储存库102可包括剪辑和地面实况数据,以及剪辑提交界面106和数据服务器108。提交界面106可以是批处理或web服务器中的一个,其允许数据创建器提供测试数据110至118中的任一个。数据储存库102可包括一个或多个标准数据库,该一个或多个标准数据库容纳剪辑数据并且允许以下所描述的元数据与剪辑数据相关联,由此允许用户快速且容易地标识各个剪辑、所选剪辑和/或所有剪辑中可用的信息,并且从数据存储108取回它们以供在测试设备103、145和140中使用。
如以下参考图4所讨论的,每一目标识别、分析和跟踪系统可包括例如深度成像处理和骨架跟踪流水线450。该流水线获取深度图像形式的运动数据,并且处理这些图像以计算诸如图4中的捕捉设备20的捕捉设备的视野中的用户的位置、运动、身份及其他方面。
在一个实施例中,深度图像处理和骨架跟踪流水线450可包括执行参考图4-8所描述的各种功能、以及此处引用并通过引用结合于此的相关联应用的硬件和代码的任何组合。在一个实施例中,硬件和代码可通过将经更新的代码125上传到处理系统中来修改。
测试系统130、145、140中的每一个具有对运动跟踪流水线的一个或多个版本的访问权。当创建流水线的新版本(图1A中的代码125、127)时,测试系统130、140和145使用深度剪辑和地面实况数据通过将跟踪测试数据中的运动时的流水线功能的性能与已知地面实况数据作比较来评估新版本的性能。
例如,包括以下参考图17和18所示的处理设备的用户测试设备130可包括由新代码125更新的流水线代码450。当对选自数据储存库102的数据执行测试时,可在用户的处理设备130内执行流水线代码。当测试新代码125时,用户测试设备130被开发者配置成通过在其上测试流水线的数据服务器来访问来自数据储存库102的剪辑数据。
以下参考图2所描述的分析引擎200输出对深度图像处理和骨架跟踪流水线相对于与输入到流水线中的测试数据相关联的地面实况的分析。分析引擎200将多个报告度量提供给分析用户界面210。
批测试系统145可包括一个或多个处理设备的集合,该集合包括分析引擎200和分析用户界面210。批测试系统包括到一个或多个控制台150(诸如,处理设备150和160)的连接。控制台150和计算机160中的每一个可执行流水线450,并且可用新流水线代码125更新。新流水线代码可被提交给批测试系统,并且在批测试系统的控制下,被加载到相应的控制台150和计算机160。
批测试系统145中的分析引擎200和作业控制器220控制测试数据向控制台和计算机中的相关联流水线中的每一个的供应,并且收集对新流水线代码125上的控制台和计算机中的每一个的输出的分析,新流水线代码125被提交且在其上执行批测试。
自动构建的测试系统140与批系统的相似点在于,它提供了对各自具有相关联处理流水线的多个控制台和计算机的访问。处理流水线由新流水线代码定义,包括例如被提交给自动构建的测试系统140的每晚的代码127。自动构建的测试系统被设计成对新提交的代码127执行定期的、周期性的测试。由此,代码管理器142管理何时允许新代码127进入系统、哪个代码被验证为可测试、以及在分析引擎200的控制下哪个代码被提供给控制台150和160以供周期性的处理。应当理解,例如在一些其他周期性的基础上可发生周期性的处理。自动构建的测试系统140在多个不同的开发者正在提供新流水线代码时是有用的,其管理由代码管理器412定义。代码可在开发者代码的每次检查之后在每晚的基础上、或按照自动构建的测试系统所定义的一些其他时间表检查。
图1B是示出一种用于实现本技术的方法的流程图。在164,创建主体的感兴趣的移动的深度剪辑。在图7A中讨论用于创建深度剪辑和所得测试数据(包括深度剪辑和深度剪辑的相关联地面实况)的各个实施例。在一个实施例中,在没有运动捕捉数据的情况下创建测试数据。在另一实施例中,测试数据可通过使用运动捕捉系统与164处的深度剪辑同时地创建运动剪辑来创建,它们随后用于为深度剪辑创建地面实况。替换地,在164,深度剪辑可与其他深度剪辑和三维数据合成。
在166,创建地面实况,并且地面实况与测试数据相关联。地面实况数据通过机器过程或手动标志过程来创建和/或确认。如以下所解释的,目标识别、分析和跟踪系统使用骨架模型(诸如,图6A和6B所示的骨架模型)来标识捕捉设备的视野内的测试主体。在一个上下文中,地面实况数据是骨架模型用于跟踪视野内或视野外的主体的验证,并且主体的实际运动由模型在空间中准确地标识。如上所述,诸如背景信息和地板位置之类的地面实况可用于此处所描述的其他目的。在168,存储所注释的地面实况和深度数据。在168,测试数据用元数据注释以允许数据类型的高级搜索。以下参考图13来讨论注释元数据。测试数据的注释包括使元数据的相关联集合附连到测试数据。应当理解,附连到数据且以下所描述的数据标签的数量和类型是示例性的。数据允许开发者快速地找到可用于对新流水线代码执行特定测试的特定类型的数据。
当在170发起对特定流水线的测试时,一般而言,将提供两种测试类型之一,自定义或批测试或者每晚的(周期性的)测试。
如果要使用诸如自动构建的测试系统140所执行的自动的或周期性的测试,则在174测试数据将通过感兴趣的一个或多个特定处理流水线来运行,并且在176相对于地面实况分析输出。可在178提供各种报告和报告概要。在176相对于地面实况分析流水线的过程将以下解释,并且参考对地面实况和流水线的输出之间的差异的检测来执行,且使用多个不同的度量来分析。一般而言,将相对于同一数据集合定期地运行自动的或周期性的测试,以跟踪代码的性能随时间的改变。
如果在172要使用自定义或批测试,则针对流水线的所选特征或测试特定部分,测试可需要被优化。在182,任选地,构建测试套件。测试套件可以是测试数据子集、以及为特定功能自定义的相关联地面实况。例如,如果应用程序开发者希望相对于网球游戏中的使用测试特定流水线,则在处理流水线中对在过肩击球、发球员、地面击球、正手和反手之间区分的用户手臂运动的流水线检测的准确性可能是最佳的。如果测试套件包含足够的数据来执行自定义分析,则新附加数据要求在184不是必需的,并且在186数据的测试套件可通过处理流水线来运行。在188再次相对于测试套件中的现有地面实况分析流水线的输出,并且在190以类似于以上参考步骤178所描述的方式报告该输出。为了测试套件正用于的特定应用,如果需要附加测试数据,则(在192)可重复步骤172、174、176和178以创建需要被添加到在182创建的测试套件的自定义数据。自定义数据可以是新记录的数据或合成的复合数据,如在下文中所描述的。
图2示出分析引擎200、分析用户界面210和作业管理器220。如上所述,可在用户测试系统130、批测试系统145或自动构建的测试系统140中提供分析引擎200。
分析用户界面210允许开发者或其他用户来定义特定测试数据和度量,以供作业控制器和分析引擎在一个或多个测试序列和报告中使用。分析用户界面210还允许用户选择各种测试数据,以供在使用构建和测试剪辑选择界面214的特定测试运行中使用。对于任何测试,可在测试中可使用对测试代码和度量、或所有代码和所有度量的特定选择。分析用户界面向用户提供可视化显示216,可视化显示216输出卷起报告生成器的结果和分析引擎所提供的各个度量报告。向作业管理器220馈送经由分析用户界面210的测试数据,和要由设备150/160分析的结果集合。
作业管理器220包括流水线加载控制器224和作业控制器226。流水线加载控制器从任意数量的源接收新流水线代码125,并且确保可使用设备界面222来将流水线代码安装在多个设备中的每一个中。作业控制器226接收来自分析用户界面210的输入,并且定义提供给提供要分析的代码并接收所执行的分析的不同设备中的每一个中的各个流水线的信息。在其他实现中,批测试指令集合可补充或替换分析用户界面和作业管理器220。
分析引擎包括分析管理器230、报告生成器250、以及具有度量过程控制器245的度量插件汇编240。分析管理器230采用所执行的分析232,并且编译已完成的结果234。所执行的分析包括流水线与剪辑的地面实况作比较所生成的剪辑跟踪结果。在一个实施例中,各个数据元素在剪辑和地面实况之间作比较,并且将误差传递到多个统计度量引擎。替换地,度量引擎调用各自将跟踪结果与地面实况作比较且进一步评估该误差的多个度量插件。例如,骨架度量插件(SkeletonMetricsPlugin)产生原始误差、以及剪辑相对于地面实况的任何所得统计评估。在另一实施例中,可存在用于可供分析引擎使用的每一物理CPU内核的度量引擎,并且每一度量引擎具有已请求的所有度量插件的列表。
通过将测试数据的可搜索集合的至少子集馈送到给定跟踪流水线和将结果记入日志(即,其中骨架关节针对每一帧)来定义测试运行。随后在分析引擎中,使用各种度量来将该跟踪结果与每一测试数据的地面实况作比较。来自分析引擎的输出由报告生成器处理,以创建集聚报告。另外,即使在与地面实况无关的情况下,可从测试运行确定有用信息,包括性能和诸如是否为帧跟踪到任何骨架等的一般跟踪信息。
将剪辑跟踪结果和地面实况提供给多个不同度量引擎242、244、246中的任一个,这些度量引擎计算跟踪结果相对于地面实况的各种报告度量。以下描述示例性度量。度量引擎经由插件240启用,插件240允许对可用于分析的可用度量的更改和自定义。此处所描述的示例度量只是示例性的,并且说明本技术的一个示例性。可使用根据本技术的任意数量的不同类型的度量来相对于跟踪数据分析地面实况数据,如此处所描述的。度量引擎将分析度量结果返回到分析管理器,该分析管理器编译这些结果并将其输出到卷起报告生成器250。卷起报告生成器将设置有报告的数据集合提供给分析管理器以供应给分析用户界面210。以下描述示例性概要报告。
图3A-4示出了可用于识别、分析和/或跟踪诸如用户18之类的人类目标的目标识别、分析和跟踪系统10。目标识别、分析和跟踪系统10的各个实施例包括用于执行游戏或其他应用程序的计算环境12。计算环境12可包括硬件组件和/或软件组件,以使计算环境12可用于执行诸如游戏之类的应用程序和非游戏应用程序。在一个实施例中,计算环境12可包括诸如标准化处理器、专用处理器、微处理器等的处理器,该处理器可执行存储在处理器可读存储设备上的用于执行此处所描述的过程的指令。
系统10还包括捕捉设备20,捕捉设备20用于捕捉与捕捉设备所感测的一个或多个用户和/或对象有关的图像和音频数据。在各个实施例中,捕捉设备20可用于捕捉与一个或多个用户的部分或全部身体移动、姿势和语音相关的信息,该信息由计算环境接收并且用于呈现游戏或其他应用程序的各方面、与这些方面交互和/或控制这些方面。以下更详细地解释计算环境12和捕捉设备20的示例。
目标识别、分析和跟踪系统10的各个实施例可连接到具有显示器14的音频/视觉(A/V)设备16。设备16例如可以是可向用户提供游戏或应用程序视觉和/或音频的电视机、监视器、高清电视机(HDTV)等。例如,计算环境12可包括诸如图形卡之类的视频适配器和/或诸如声卡之类的音频适配器,这些适配器可提供与游戏或其他应用程序相关联的音频/视觉信号。A/V设备16可从计算环境12接收音频/视觉信号,并且随后可向用户18输出与这些音频/视觉信号相关联的游戏或应用程序视觉和/或音频。根据一个实施例,音频/视觉设备16可经由例如S-视频电缆、同轴电缆、HDMI电缆、DVI电缆、VGA电缆、分量视频电缆等连接到计算环境12。
在各个实施例中,计算环境12、A/V设备16和捕捉设备20可协作以在显示器14上呈现化身或屏幕上人物19。例如,图3A示出用户18正在玩足球游戏应用程序。跟踪并使用用户的移动来使化身19的移动动画化。在各个实施例中,化身19模仿用户18在现实世界空间中的移动,以使用户18可执行控制化身19在显示器14上的移动和动作的移动和姿势。在图3B中,在NUI系统中使用捕捉设备20,其中例如,用户18正在滚动和控制具有呈现在显示器14上的各种菜单选项的用户界面21。在图1A中,计算环境12和捕捉设备20可用于识别和分析用户身体的移动和姿势,并且此类移动和姿势可被解释为对用户界面的控制。
图3A-3B的各个实施例是可在计算环境12上运行的许多不同应用中的两个,并且在计算环境12上运行的应用程序可以是各种其他游戏和非游戏应用程序。
图3A-3B示出包含静态的背景对象23(诸如,地板、椅子和植物)的环境。这些对象是在捕捉设备20所捕捉的FOV内的对象,但是不逐帧改变。除了所示的地板、椅子和植物以外,静态对象可以是捕捉设备20中的图像相机查看到的任何对象。场景内的附加静态对象可包括任何墙、天花板、窗、门、墙面装饰等。
系统10及其组件的合适的示例在以下共同待审的专利申请中找到,这些专利申请全部特此通过引用结合于此:于2009年5月29日提交的名称为“Environment And/Or Target Segmentation(环境和/或目标分割)”的美国专利申请序列号12/475,094;于2009年7月29日提交的名称为“Auto Generatinga Visual Representation”(自动生成视觉表示)”的美国专利申请序列号12/511,850;于2009年5月29日提交的名称为“Gesture Tool(姿势工具)”的美国专利申请序列号12/474,655;于2009年10月21日提交的名称为“PoseTracking Pipeline(姿态跟踪流水线)”的美国专利申请序列号12/603,437;于2009年5月29日提交的名称为“Device for Identifying and Tracking MultipleHumans Over Time(用于随时间标识和跟踪多个人类的设备)”的美国专利申请序列号12/475,308;于2009年10月7日提交的名称为“Human Tracking System(人类跟踪系统)”的美国专利申请序列号12/575,388;于2009年4月13日提交的名称为“Gesture Recognizer System Architecture(姿势识别器系统体系结构)”的美国专利申请序列号12/422,661;于2009年2月23日提交的名称为“Standard Gestures(标准姿势)”的美国专利申请序列号12/391,150;以及于2009年5月29日提交的名称为“Gesture Tool(姿势工具)”的美国专利申请序列号12/474,655。
图4示出可在目标识别、分析和跟踪系统10中使用的捕捉设备20的一个示例实施例。在一个示例实施例中,捕捉设备20可被配置成经由任何合适的技术来捕捉具有可包括深度值的深度图像的视频,这些技术包括例如飞行时间、结构化光、立体图像等。根据一个实施例,捕捉设备20可将所计算的深度信息组织成“Z层”,或与从深度相机沿其视线延伸的Z轴垂直的层。X和Y轴可被定义为与Z轴垂直。Y轴可以是垂直的,而X轴可以是水平的。X、Y和Z轴一起定义捕捉设备20所捕捉的3-D真实世界空间。
如图4所示,捕捉设备20可包括图像相机组件422。根据一个示例实施例,图像相机组件422可以是可捕捉场景的深度图像的深度相机。深度图像可包括所捕捉场景的二维(2-D)像素区域,其中2-D像素区域中的每一像素可表示深度值,诸如例如以厘米、毫米等为单位的、所捕捉场景中的对象距相机的长度或距离。
如图4所示,根据一个示例性实施例,图像相机组件422可包括可用于捕捉场景的深度图像的IR光组件424、三维(3-D)相机426,以及RGB相机428。例如,在飞行时间分析中,捕捉设备20的IR光组件424可将红外光发射到场景上,并且随后可使用传感器(未示出)、用例如3-D相机426和/或RGB相机428来检测从场景中的一个或多个目标和对象的表面反向散射的光。
在一些实施例中,可使用脉冲红外光,从而可测量出射光脉冲和相应入射光脉冲之间的时间,并且将其用于确定从捕捉设备20到场景中的目标或对象上的特定位置的物理距离。另外,在其他示例实施例中,可将出射光波的相位与入射光波的相位作比较来确定相移。该相移随后可用于确定从捕获设备20到目标或对象上特定位置的物理距离。
根据另一示例实施例,飞行时间分析可用于通过经由包括例如快门式光脉冲成像在内的各种技术来随时间分析反射光束的强度来间接地确定从捕捉设备20到目标或对象上的特定位置的物理距离。
在另一示例实施例中,捕捉设备20可使用结构化光来捕捉深度信息。在此类分析中,图案化光(即,被显示为诸如网格图案或条纹图案之类的已知图案的光)可经由例如IR光组件424投影到场景上。在落到场景中的一个或多个目标或对象的表面时,作为响应,图案可变形。图案的此类变形可被例如3-D相机426和/或RGB相机428捕捉,并且随后可被分析以确定从捕捉设备20到目标或对象上的特定位置的物理距离。
捕捉设备20还可包括话筒430。话筒430可包括可接收声音并将其转换成电信号的变换器或传感器。根据一个实施例,话筒430可用于减少目标识别、分析和跟踪系统10中的捕捉设备20和计算环境12之间的反馈。另外,话筒430可用于接收也可由用户提供的音频信号,以控制可由计算环境12执行的诸如游戏应用程序、非游戏应用程序等应用程序。
在一个示例实施例中,捕捉设备20还可包括可与图像相机组件422有效通信的处理器432。处理器432可包括可执行指令的标准处理器、专用处理器、微处理器等,这些指令可包括用于接收深度图像的指令、用于确定合适的目标是否可包括在深度图像中的指令、用于将合适的目标转换成该目标的骨架表示或模型的指令、或任何其他合适的指令。
捕捉设备20还可包括存储器组件434,存储器组件34可存储可由处理器432执行的指令、3-D相机或RGB相机捕捉到的图像或图像的帧、或任何其他合适的信息、图像等。根据一个示例实施例,存储器组件434可包括随机存取存储器(RAM)、只读存储器(ROM)、高速缓存、闪存、硬盘、或任何其他合适的存储组件。如图4所示,在一个实施例中,存储器组件434可以是与图像相机组件22和处理器432通信的单独组件。根据另一个实施例,可将存储器组件34集成到处理器32和/或图像相机组件22中。
如图4所示,捕捉设备20可经由通信链路436与计算环境12通信。
计算环境12包括深度图像处理和骨架跟踪流水线450,该流水线使用深度图像来跟踪可被捕捉设备20的深度相机功能检测的一个或多个人。深度图像处理和骨架跟踪流水线450向应用452提供跟踪信息,应用452可以是视频游戏、生产性应用、通信应用或其他软件应用等。还可将音频数据和视觉图像数据提供给应用452以及深度图像处理和骨架跟踪模块450。应用452将跟踪信息、音频数据和视觉图像数据提供给识别器引擎454。
识别器引擎454与筛选程序460、462、464、...、466的集合相关联,每一筛选程序包括关于可由捕捉设备20检测的任何人或对象执行的姿势、动作或状况的信息。例如,筛选程序460、462、464、...、466可处理来自捕捉设备20的数据,以标识一个用户或一组用户何时执行了一个或多个姿势或其他动作。这些姿势可与应用452的各种控制、对象或状况相关联。由此,计算环境12可将识别器引擎454与筛选程序一起用于解释和跟踪对象(包括人)的移动。
识别器引擎454包括确定姿势或动作的多个筛选程序460、462、464、...、466。筛选程序包括定义姿势、动作或状况以及该姿势、动作或状况的参数或元数据的信息。例如,包括一只手从身体背面经过身体前方的运动的投掷可被实现为包括表示用户的一只手从身体背面经过身体前方的运动的信息的姿势,因为该运动可能由深度相机捕捉。随后可为该姿势设定参数。当姿势是投掷时,参数可以是这只手必须达到的阈值速度、这只手行进的距离(绝对的、或相对于用户的整体尺寸)、以及识别器引擎对发生的姿势的置信度评级。用于姿势的这些参数可随时间在各应用之间、在单个应用的各个上下文之间、或在一个应用的一个上下文内变化。
对筛选程序的输入可包括诸如关于用户的关节位置的关节数据、在关节处相交的骨骼所形成的角度、来自场景的RGB色彩数据、以及用户的某一方面的变化速率等内容。来自筛选程序的输出可包括诸如正作出给定姿势的置信度、作出姿势运动的速度、以及作出姿势运动的时间等内容。
关于识别器引擎454的更多信息可在2009年4月13日提交的美国专利申请12/422,661“Gesture Recognizer System Architecture(姿势识别器系统体系结构)”中找到,该专利申请的全部内容通过引用结合于此。关于识别姿势的更多信息可在2009年2月23日提交的美国专利申请12/391,150“Standard Gestures(标准姿势)”;以及2009年5月29日提交的美国专利申请12/474,655“GestureTool(姿势工具)”中找到,这些专利申请的全部内容都通过引用结合于此。
图5示出示例身体模型70的非限制性视觉表示。身体模型70是被建模的目标(例如,图3A和3B的游戏玩家18)的机器表示。身体模型可包括一个或多个数据结构,该一个或多个数据结构包括以游戏或其他应用/操作系统的语言来共同定义被建模的目标的变量集合。
目标的模型可在不背离本发明的范围的情况下不同地配置。在一些示例中,模型可包括将目标表示为包括刚性和/或可变形形状、或身体部位的三维模型的一个或多个数据结构。每一身体部位可被表征为数学图元,其示例包括但不限于球体、各向异性地缩放的球体、圆柱体、各向异性圆柱体、平滑圆柱体、方形、斜面方形、棱柱等。
例如,图5的身体模型70包括身体部位bp1至bp14,其各自表示被建模的目标的不同部分。每一身体部位都是三维形状。例如,bp3是表示被建模的目标的左手的矩形棱柱,而bp5是表示被建模的目标的左上臂的八面棱柱。身体模型70是示例性的,因为身体模型可包含任意数量的身体部位,其各自可以是被建模的目标的相应部分的任何机器可理解表示。
包括两个或两个以上身体部位的模型还可包括一个或多个关节。每一关节可允许一个或多个身体部位相对于一个或多个其他身体部位移动。例如,表示人类目标的模型可包括多个刚性和/或可变形身体部位,其中一些身体部位可表示人类目标的相应解剖学身体部位。此外,该模型的每一身体部位可包括一个或多个结构件(即,“骨骼”或骨架部位),其中关节位于相邻骨骼的交叉点处。应当理解,一些骨骼可对应于人类目标中的解剖学骨骼,和/或一些骨骼在人类目标中可能不具有相应的解剖学骨骼。
骨骼和关节可共同构成骨架模型,它们可以是身体模型的构成元素。在一些实施例中,骨架模型可代替另一类型的模型(诸如,图5的模型70)来使用。骨架模型可包括每一身体部位的一个或多个骨架构件以及相邻骨架构件之间的关节。示例性骨架模型80和示例性骨架模型82分别在图6A和6B中示出。图6A示出如从正面查看的具有关节j1至j33的骨架模型80。图6B示出如从斜视图查看的也具有关节j1至j33的骨架模型82。
骨架模型82还包括滚动关节j34至j47,其中每一滚动关节可用于跟踪轴向滚动角。例如,轴向滚动角可用于定义肢相对于其父肢和/或躯干的旋转定向。例如,如果骨架模型示出手臂的轴向旋转,则滚动关节j40可用于指示相关联腕正在指的方向(例如,手掌向上)。通过检查肢相对于其父肢和/或躯干的定向,可确定轴向滚动角。例如,如果正在检查小腿,则可检查小腿相对于相关联大腿和髋部的定向以确定轴向滚动角。
骨架模型可在不背离本发明的精神的情况下包括更多或更少的关节。在下文中所解释的本系统的其他实施例使用具有31个关节的骨架模型来操作。
如上所述,一些模型可包括用作被建模的目标的机器表示的骨架和/或其他身体部位。在一些实施例中,模型可另选地或另外地包括线框网格,该线框网格可包括刚性多边形网格、一个或多个可变形网格、或两者的任意组合的分层结构。
上述身体部位模型和骨架模型是可用作被建模的目标的机器表示的非限制示例模型类型。其他模型也在本发明的范围之内。例如,一些模型可包括多边形网格、片、非均匀理性B样条、细分表面、或其他高阶表面。模型还可包括表面纹理和/或其他信息来更准确地表示被建模的目标的衣着、头发和/或其他方面。模型可任选地包括与当前姿态、一个或多个过去的姿态和/或模型物理学有关的信息。应当理解,可摆姿态的各种不同的模型与本文描述的目标识别、分析和跟踪是兼容的。
如上所述,模型用作诸如图3A和3B中的游戏玩家18之类的目标的表示。当目标在物理空间中移动时,来自捕捉设备(诸如,图4中的深度相机20)的信息可用于调整每一帧中的模型的姿态和/或基本尺寸/形状,以使其准确地表示该目标。
图7A示出用于创建测试数据的各种方法的一个示例的流程图。测试数据可通过同时在602捕捉运动剪辑与在604捕捉深度剪辑来创建,两者为主体同时进行的相同的移动,它们随后在606用于为深度剪辑创建地面实况。如以下在图9B和10所讨论的,该同时记录之前是运动捕捉系统和深度捕捉系统之间的对准。替换地,两个测试剪辑可合成在一起,包括在其中的地面实况被合成的剪辑所继承。替换地,主体的深度剪辑可在612捕捉,并且在614由开发者用骨架跟踪坐标来注释。在608,将包括深度剪辑和相关联地面实况的测试数据存储为测试数据。
图7B是表示以上在450示出且由被系统测试的新代码125实现的目标识别、分析和跟踪流水线的功能的流程图。示例方法可使用例如参考图3A-4所描述的目标识别、分析和跟踪系统50的捕捉设备20和/或计算环境12来实现。在步骤800,接收来自捕捉设备的深度信息、或在测试的情况下的深度剪辑。在步骤802,作出关于深度信息或剪辑是否包括人类目标的判定。该判定是基于以下所描述的模型拟合和模型解析过程作出的。如果在804确定人类目标,则在806扫描人类目标以寻找身体部位,在808生成人类目标的模型,并且在810跟踪该模型。
深度信息可包括在以上参考图7A所讨论的过程中创建的深度剪辑。在800接收到包括多个深度图像的剪辑之后,可将剪辑中的每一图像下采样到较低的处理分辨率,从而可用更少的计算开销来更容易地使用和/或更快速地处理该深度图像。另外,可从深度图像中移除和/或平滑掉一个或多个高变度和/或含噪声的深度值;可填入和/或重构缺少的和/或移除的深度信息的各部分;和/或可对接收到的深度信息执行任何其他合适的处理,以使该深度信息可用于生成诸如骨架模型之类的模型,这将在下文更详细地描述。
在802,目标识别、分析和跟踪系统可确定深度图像是否包括人类目标。例如,在802,可对深度图像中的每一目标或对象进行泛色填充并将其与一个图案作比较以确定该深度图像是否包括人类目标。所获取图像可包括所捕捉场景的二维(2-D)像素区域,其中2-D像素区域中的每一像素可表示深度值。
在804,如果深度图像不包括人类目标,则可在800接收捕捉区域的新深度图像,以使目标识别、分析和跟踪系统可在802确定该新深度图像是否可包括人类目标。
在804,如果深度图像包括人类目标,则在806可扫描该人类目标以寻找一个或多个身体部位。根据一个实施例,可扫描人类目标以提供与用户(诸如,以上参考图3A和3B所描述的用户18)的一个或多个身体部位相关联的度量(诸如,长度、宽度等),以使可基于此类度量来生成用户的准确模型。
如果帧的深度图像包括人类目标,则在806可扫描该帧以寻找一个或多个身体部位。随后可对为每一帧所确定的身体部位的值求平均,以使数据结构可包括与每一帧的扫描相关联的身体部位的诸如长度、宽度等平均测量值。根据另一实施例,可调整所确定的身体部位的测量值,诸如放大、缩小等,以使数据结构中的测量值更接近地对应于典型的人类身体模型。
在808,随后可基于该扫描来生成人类目标的模型。例如,根据一个实施例,由所扫描位掩码确定的测量值可用于定义骨架模型中的一个或多个关节。该一个或多个关节可用于定义可对应于人类的身体部位的一个或多个骨骼。
在810,随后可跟踪该模型。例如,根据一个示例实施例,诸如以上参考图6B所描述的骨架模型82之类的骨架模型可以是诸如用户18之类的用户的表示。当用户在物理空间中移动时,来自诸如以上参考图4所描述的捕捉设备20之类的捕捉设备的信息可用于调整骨架模型,以使该骨架模型可准确地表示用户。具体而言,可将一个或多个力施加到骨架模型的一个或多个受力方面,以将骨架模型调整成更加紧密地对应于物理空间中的人类目标的姿态的姿态。
图7C是用于获得给定帧或其他时间段的用户18的模型(例如,在图7B的步骤808中生成的骨架模型82)的本系统的一个实施例的流程图。除了骨架关节以外或代替这些骨架关节,该模型可包括一个或多个多边形网格、一个或多个数学图元、一个或多个高阶表面、和/或用于提供目标的机器表示的其他特征。此外,该模型可作为计算系统上存在的一个或多个数据结构的实例而存在。
图7C的方法可根据发明人威廉斯等于2010年9月7日提交的名称为“System For Fast,Probabilistic Skeletal Tracking(用于快速、概率性的骨架跟踪的系统)”的美国专利申请序列号12/876,418的教导来执行,该专利申请的全文通过引用结合于此。
在步骤812,使用利用可用信息的部分或全部的一个或多个计算理论来提出m个骨架假设。用于分配特定像素或一组像素表示一个或多个对象的概率的无状态处理的一个示例是样本处理。样本处理使用采用深度图像的机器学习方法,并且通过向每一像素分配其可能相对应的一个或多个对象上的概率分布来对每一像素进行分类。样本处理在名称为“Human Body Pose Estimation(人类身体姿态估计)”的美国专利申请号12/454,628中进一步描述,该专利申请的全部内容通过引用结合于此。
在另一实施例中,样本处理和质心生成用于生成关于正确标识诸如身体部位和/或道具之类的特定对象的概率。质心可具有所捕捉的对象被正确标识为给定对象(诸如,手、脸、道具)的相关联概率。在一个实施例中,生成用户的头、肩、肘、腕和手的质心。样本处理和质心生成在名称为“Skeletal JointRecognition and Tracking System(骨架关节识别和跟踪系统)”的美国专利申请号12/825,657和名称为“Multiple Centroid Condensation of ProbabilityDistribution Clouds(概率分布云的多质心压缩)”的美国专利申请号12/770,394中进一步描述。上述申请中的每一个的全部内容通过引用结合于此。
接下来,在步骤814中,为每一骨架假设计算评级分数。在步骤816中,从步骤814的m个建议中填充n个经采样的骨架假设的集合Xt。给定骨架假设可被选入经采样的集合Xt的概率与步骤814中所分配的分数成比例。由此,一旦已执行了步骤812-814,与分配低概率的建议相比,分配高概率的建议更可能出现在输出集合Xt中。以此方式,Xt将朝良好状态估计移动。随后在步骤818中,可从经采样的集合Xt选择一个或多个样本骨架假设(或其组合)作为所捕捉数据的该帧或其他时间段的输出。
图8示出用于跟踪一个或多个目标的示例流水线540的流程图。流水线540可由计算系统(例如,计算环境12)执行以跟踪与游戏或其他应用交互的一个或多个玩家。在一个实施例中,可在如以上所描述的元素450的目标识别、分析和跟踪系统中使用流水线540。流水线540可包括多个概念阶段:深度图像获取542、背景移除544、前景像素分配546、模型拟合548(使用一个或多个专家594)、模型解析550(使用仲裁者596)、以及骨架跟踪560。深度图像获取542、背景移除544和前景像素分配546可全部被认为是对图像数据的预处理的一部分。
深度图像获取542可包括从捕捉设备20的深度相机26接收在视野内观察到的目标的深度图像。观察到的深度图像可包括多个观察到的像素,其中每一观察到的像素具有观察到的深度值。
如在图8的554所示,深度图像获取542可任选地包括将观察到的深度图像下采样到较低的处理分辨率。下采样到较低的处理分辨率可允许以更少的计算开销来更容易地使用和/或更快速地处理观察到的深度图像。下采样的一个示例是用偶尔被称为重复分割的技术来将像素分组成片。片可被选择成具有近似恒定的深度且大致相等的世界空间区域。这意味着离相机越远的片在图像中看上去越小。关于深度图像的所有后续推理可按照片而非像素来表达。如所指示的,可跳过将像素分组成片的下采样步骤554,以使流水线用来自各个像素的深度数据来工作。
如在图8的556所示,深度图像获取542可任选地包括从观察到的深度图像中移除和/或平滑掉一个或多个高变度和/或含噪声的深度值。观察到的深度图像中的此类高变度和/或含噪声的深度值可源自多个不同的源,诸如在图像捕捉过程期间发生的随机和/或系统性误差、因捕捉设备而导致的缺陷和/或畸变等。由于此类高变度和/或含噪声的深度值可以是图像捕捉过程的伪像,因此在图像的任何未来的分析中包括这些值可使结果偏斜和/或使计算变慢。由此,移除此类值可为未来的计算提供更好的数据完整性和/或速度。
背景移除544可包括区分观察到的深度图像中的要跟踪的人类目标与非目标、背景元素。如本文中所使用的,术语“背景”用来描述场景中不作为要被跟踪的目标的一部分的任何事物。背景例如可包括图3A和3B中的地板、椅子和植物23,但是一般可包括在要跟踪的目标前面(即,离深度相机较近)或后面的元素。区分要跟踪的前景元素与可忽略的背景元素可增加跟踪效率和/或简化下游处理。
背景移除544可包括向所处理深度图像的每一数据点(例如,像素)分配可称为玩家索引的一个值,该玩家索引将数据点标识为属于特定目标或非目标背景元素。在使用这种方法时,可从流水线540的一个或多个后续阶段的考虑中移除分配有背景索引的像素或其他数据点。作为示例,与第一玩家相对应的像素可分配有等于1的玩家索引,与第二玩家相对应的像素可分配有等于2的玩家索引,而未与目标玩家相对应的像素可分配有等于0的玩家索引。此类玩家索引可按任何合适的方式保存。在一些实施例中,像素矩阵可在每一像素地址包括指示在该像素地址的表面属于背景元素、第一玩家还是第二玩家等的玩家索引。玩家索引可以是指示像素属于特定目标和/或背景的概率的离散索引或模糊索引。
像素可按各种方法被分类为属于目标或背景。一些背景移除技术可使用来自一个或多个先前帧的信息来帮助和改进背景移除的质量。例如,可从深度信息的两个或两个以上帧中导出深度历史图像,其中每一像素的深度值被设置成该像素在样本帧期间经历的最深的深度值。深度历史图像可用于从不移动的背景元素中标识场景的前景中的移动对象(例如,人类游戏玩家)。在给定帧中,移动前景像素可能具有与深度历史图像中的相应深度值(在相同像素地址)不同的深度值。在给定帧中,不移动的背景像素可能具有与深度历史图像中的相应深度值相匹配的深度值。
作为一个非限制性示例,可使用连接岛背景移除。这种技术例如在2009年10月7日提交的美国专利申请号12/575,363中描述,该申请的全部内容通过引用结合于此。另外的或替换的背景移除技术可用于向每一数据点分配玩家索引或背景索引,或者以其他方式区分前景目标与背景元素。在一些实施例中,可标识背景的特定部分。除了在处理前景目标时不被考虑以外,所发现的地板可用作基准表面,该基准表面可用于准确地在游戏空间中定位虚拟对象、停止作为生成连接岛的一部分的泛色填充、和/或如果其中心太接近地板平面则拒绝岛。一种用于检测FOV中的地板的技术例如在2009年9月21日提交的美国专利申请号12/563,456中描述,该申请的全部内容通过引用结合于此。可使用其他地板发现技术。
另外的或替换的背景移除技术可用于向每一数据点分配玩家索引或背景索引,或者以其他方式区分前景目标与背景元素。例如,在图8中,流水线540包括坏的身体拒绝560。在一些实施例中,最初被标识为前景对象的对象可能因为它们与任何已知目标不相似而被拒绝。例如,可按基本准则来测试最初被标识为前景对象的对象,该基本准则将出现在要跟踪的任何对象(例如,头和/或躯干可标识的、预定容差内的骨骼长度等)中。如果最初被标识为候选前景对象的对象未通过此类测试,则它可被重新分类为背景元素和/或经受进一步测试。以此方式,不要被跟踪的移动对象(诸如,推入场景中的椅子)可被分类为背景元素,因为此类元素与人类目标不相似。在例如流水线正在跟踪目标用户18且第二用户进入视野的情况下,流水线可花费若干帧来确认新用户实际上是人类。此时,可跟踪新用户而非目标用户,或者跟踪除目标用户以外的新用户。
在将前景像素与背景像素进行区分之后,流水线540还对被认为与要跟踪的前景对象相对应的像素进行分类。具体而言,在图8的前景像素分配546,分析每一前景像素来确定前景像素可能属于目标用户的身体的什么部位。在各个实施例中,可省略背景移除步骤,并且可用例如通过相对于过去的帧的移动的其他方式来确定前景对象。
一旦完成了深度图像获取542、背景移除544和前景像素分配546,流水线540执行模型拟合548以标识用作玩家目标18的机器表示的骨架假设,并且执行模型解析550以从这些骨架假设之中选择被估计为玩家目标18的最佳机器表示的一个(或多个)假设。模型拟合步骤548根据例如以上所引用的发明人威廉斯等于2010年9月7日提交的名称为“System For Fast,ProbabilisticSkeletal Tracking(用于快速、概率性的骨架跟踪的系统)”的美国专利申请序列号12/876,418来执行。
一般而言,在565,目标识别、分析和跟踪系统跟踪关节连接的骨架模型的配置。在接收图像中的每一个之后,可将与特定图像相关联的信息和与该模型相关联的信息作比较以确定用户是否可能已执行了移动。例如,在一个实施例中,该模型可被光栅化成诸如合成的深度图像之类的合成图像。可将合成图像中的像素和与每一接收到的图像中的人类目标相关联的像素作比较以确定接收到的图像中的人类目标是否已移动。
根据一个示例实施例,可基于在合成图像和接收到的图像之间比较的像素来计算一个或多个力矢量。随后可将该一个或多个力施加到或映射到诸如该模型的关节之类的一个或多个受力方面,从而将该模型调整成更接近地对应于物理空间中的人类目标或用户的姿态。
根据另一实施例,可将该模型调整成适合每一接收到的图像中的人类目标的掩码或表示,从而基于用户的移动调整该模型。例如,在接收每一观察到的图像之后,可基于每一接收到的图像中的人类目标的掩码来调整可定义每一骨骼和关节的包括X、Y和Z值在内的矢量。例如,该模型可基于与每一接收到的图像中的人类的掩码的像素相关联的X和Y值在X方向和/或Y方向上移动。另外,可基于与每一接收到的图像中的人类目标的掩码的像素相关联的深度值在Z方向上旋转该模型的关节和骨骼。
图9A和9B示出根据以上图1的步骤166的用于创建测试数据以及相关联地面实况的过程。如上所述,用于提供与地面实况相关联的深度剪辑数据的一个实施例是手动地标志深度剪辑数据。
图9A示出一种用于手动地注释深度数据的方法。在904,加载主体移动的原始深度剪辑或具有所计算的地面实况的深度剪辑。对于手动标记的剪辑,手动过程随后可通过注释原始深度剪辑来生成所有地面实况,或修改地面实况数据以与期望的骨架模型相匹配。在904,将深度剪辑加载到分析界面中。
根据图9A的方法,针对每一帧908,用户在909在查看器中查看相对于深度数据的骨架模型坐标,并且在910基于什么是视觉上可察觉的来手动地标记用于骨架处理流水线的骨架数据。如果地面实况数据存在,则步骤910可包括标识现有地面实况和观察到的地面实况之间的偏移量。在912特定剪辑中的每一帧已完成之后,如果在914附加剪辑可用,则加载另一校准剪辑,并且在916重复该过程。如果为是,则在步骤918附加剪辑的附加处理可继续。
图9B示出用于创建地面实况的替换过程,其中运动捕捉系统结合深度剪辑用于创建地面实况。在922,运动捕捉系统使传感器的位置对准主体上的真实“关节”预期所在的位置。在有源传感器用于记录运动捕捉数据的情况下,在922,在运动捕捉传感器的坐标空间和与传感器相关联的特定关节之间进行校准,从而产生传感器和关节之间的偏移量。这些偏移量可用于校准运动捕捉数据的记录,并且自动地使该数据与骨架地面实况相关。每一传感器提供位置和定向,从该位置和定向可计算从该传感器到该传感器的坐标空间中的一个或多个关节的转换。对于所有运动捕捉,在运动捕捉和深度相机之间进行对准。该对准过程在图10中示出。
在926同时记录深度剪辑和运动捕捉剪辑,并且在928加载校准剪辑。在930分析目标识别、分析和跟踪流水线中的深度剪辑,并且在932计算流水线标识的关节和运动捕捉传感器坐标系位置之间的偏移量。在934将偏移量应用于深度剪辑。在步骤932可确定距离、方向、力或运动的任何偏移量,并且在936该差值用于确定校准准确性。在936验证对准准确性,并且该对准准确性可包括处理剪辑的人作出的准确性的质量评估。在938如果准确性是可接受的,则处理继续。如果在940准确性是不可接受的,则在940记录附加校准剪辑。
图10示出图9A或9B的步骤922中所使用的用于将运动捕捉系统的坐标空间对准到深度捕捉坐标空间的过程。对准准确性是被流水线跟踪的主体的骨架模型和运动捕捉检测到的位置之间的差异的量化值。在一个实现中,在步骤1010,使用保持面向深度传感器且在运动捕捉系统和深度传感器的视野内的物理环境中摇动的运动捕捉传感器来创建测试数据。运动捕捉系统将使用其自己的技术来在运动捕捉系统1020的本地坐标空间中确定运动捕捉传感器的位置,并且以上如参考图4所示的深度传感器将在1014确定离传感器最近的点。运动捕捉坐标空间中的点集合(来自运动捕捉设备跟踪的传感器)和深度捕捉坐标空间中的点集合在1040用于计算使两个点集合相关的变换矩阵。任何随后记录的运动捕捉数据将对准应用于运动捕捉传感器以将其变换至深度相机空间。使用该矩阵,可根据图9A和9B为地面实况校正随后记录的运动数据。
如上所述,可存在用于特定情形的测试数据不存在的情况。图11和12示出组合深度数据的合成。使用深度剪辑信息以及相关联地面实况进行对新测试数据的合成,如果其存在深度剪辑。
为了将可能具有相关联地面实况的一个或多个深度剪辑复合成单个场景,用户自例如如图12A所示的房间的基础剪辑开始。如上所述,房间必须包括地板,并且可包括其他对象、墙等。图12A所示的房间是图3A所示的示例性房间的深度图图像。如图12B所示,创建器通过首先从如图12C所示的新剪辑中移除背景伪像来将要复合的新剪辑添加到场景。
如图11所示,可通过在1162首先取回剪辑的当前帧的深度图来执行图12A-12C所示的步骤。在1164,背景移除过程用于隔离该帧中的用户。在一个实施例中,通过经由地板检测移除地板、并且随后提供使用户与深度图分离的边界框来手动地执行背景移除。替换地,我们可能使用其他背景移除算法,诸如在2009年10月7日提交的名称为“Systems And Methods for Removing ABackground Of An Image(用于移除图像的背景的系统以及方法)”的美国专利申请序列号12/575,363中描述的背景移除算法,该专利申请的全部内容通过引用结合于此。图12B示出在场景中被隔离的用户。
在步骤1166,将深度图转换成三维网格。三维网格在1168允许将剪辑地板平面变换成复合剪辑的地平面。坐标匹配可用于该目的。在1168计算剪辑地板平面和复合地面层的矩阵和变换。变换使用各个剪辑的地板平面和地面层来完成变换映射。
在步骤1170,剪辑中的每一帧的深度图由步骤1168中所计算的矩阵变换。在步骤1172,呈现复合场景的模型。在图12D中示出一种此类复合场景,而在图12H中示出另一种此类复合场景。在步骤1174,对深度缓冲区采样并将其转换成深度图格式。在1176,合并复合深度图与在1174所计算的深度图以完成复合剪辑。如果新剪辑包含地面实况数据,则该数据由同一矩阵变换,由此在复合剪辑中产生新地面实况。
图12B示出添加到场景的新剪辑的深度图图像,而图12C示出在不移除背景图像的情况下的场景中的人类用户。接下来,将新剪辑插入如图12D所示且以上所讨论的合成场景。通过基于变换矩阵将被隔离的用户的前景图像转换成目标图像的基准帧来提供新剪辑中的用户的位置。基础剪辑内的新剪辑的位置随后可被设置为如图12E所示的。(注意,用户在图12B所示的位置和图12E所示的位置之间移动。)
可通过将两个孩子添加到图12F中的场景并且使背景伪像与图12G中的新剪辑隔离来为另一新剪辑重复以上所讨论的步骤。在图12H中,将新剪辑前景(孩子的体形)插入如所示的场景,并且如图12I中所示,在场景内定位用户。接下来,具有背景场景中的所有各种用户的合成剪辑的完整回放如图12J所示。
应当理解,任何类型的深度数据(捕捉的或合成的)可用于以上合成过程。即,用户的真实世界深度捕捉可与计算机生成的对象一起使用,并且在场景中合成。例如,此类对象可用于测试可能对捕捉设备隐藏的用户部位的运动。此外,用户可对输入剪辑排序,以在定义的时间处发生并且在合成场景中播放定义的持续时间。
图13是示出以上在图1B的步骤174中所讨论的注释深度剪辑的步骤的过程。在步骤1302,为在步骤1304可用的每一深度剪辑分配有界元数据并且其附连有剪辑。有界元数据可包括例如以下在表格中列出的元数据。应当认识到,分配给测试数据的元数据可在记录该数据时、在分析该数据之后、或在已将测试数据插入数据储存库之前或之后的任何点发生。
元数据集合的主要目标最终是辅助开发者跟踪问题情形和姿态。一旦他们已标识了剪辑有问题,他们将能够找到具有类似特征的其他剪辑以测试公共原因。附加目标是提供有价值的信息作为报告的一部分。版本、固件版本、驱动程序版本、日期/时间、平台等可自动地确定,并且一般使输入最小化且降低误差的风险。
表格1示出可与测试数据相关联的各种类型的元数据:
Figure BSA00000645963700261
另外,可对地面实况执行质量控制过程,以确保附连到地面实况以及相关联剪辑的元数据中所示的所有元数据是正确的。针对深度剪辑中的每一帧,可将流水线中的特定关节的所计算的位置与所建立的地面实况位置和与剪辑相关联的地面实况数据作比较。如果需要校正,则可使用标志工具来手动地重置元素的位置。一旦注释了整个剪辑,就保存该剪辑。
图14示出用于提供对流水线的所执行分析232的过程,该过程可通过分析引擎200来执行,如图2所示。在步骤1402,获取测试数据,并且在1404将该测试数据馈送到处理流水线。在作业管理器的控制下,处理流水线在1406运行数据,并且将结果输出到日志文件,该日志文件随后用作到分析引擎的输入,该分析引擎调用度量插件以在跟踪结果和地面实况之间作比较。分析当前将内核分析比较的一部分存储在文件中,因此可相当快速地执行构建与构建的比较。在1408针对跟踪数据的每一帧,在1412存储所跟踪的关节信息。度量引擎提供对地面实况和流水线的所计算的关节的跟踪位置或定向之间的差异的各种测量。在1414该过程针对馈送到处理流水线的深度剪辑的每一帧继续。当剪辑中的帧已完成时,在1416该过程在每一流水线中继续。应当理解,在多个执行设备中的多个流水线中可同时执行步骤1404至1416。在步骤1418,针对要为其计算结果的每一度量,执行各个度量计算。在1420,输出度量结果,并且在1422,输出概要报告。
示例性度量的图示由如以下参考表格2所描述的系统提供。如上所述,可用于评估流水线的性能的度量的数量和类型是相对无限的。
在表格2中示出可使用的示例性度量:
Figure BSA00000645963700271
Figure BSA00000645963700281
Figure BSA00000645963700291
另外,提供标识从机器学习过程使用哪些图像对给定帧或姿态中的身体部位分类的设施,由此提供系统如何得出在最终结果中呈现的结论的信息。在该示例中,通过使用阈值并且确定正在检查的帧和机器学习训练图像之间的骨架距离来定义“类似”,由此返回在所定义阈值内拟合的最类似者。基于在各个附加阈值点内的多个图像来计算加权平均值,且该加权平均值用于导出“受欢迎分数”。该分数指示该姿态在训练集合中的受欢迎程度。通常,受欢迎的姿态应当被机器学习良好地支持,并且还具有良好的样本度量分数。如果一个帧具有低度量分数和低受欢迎分数,则可确定该训练集合无法良好地支持该姿态。如果度量分数低但受欢迎分数高,则其指示训练算法中的潜在缺陷。
另一问题是需要跨数百万的训练图像很快的搜索和比较。为了满足该要求,群集算法将所有图像分组成群集,并且这些群集内的图像位于距群集中心的特定距离内。当搜索到图像时,在来自正在被调查的帧的骨架和每一群集中心之间作比较。如果距中心的距离太远,则可跳过整个群集。该群集算法可改进处理时间一个数量级。为了该搜索功能中的高性能,还优化数据文件格式,从而具有对其记录的直接映射。
在一个实施例中,提供度量的概要报告。使用先前提及的度量并且通过稳定的和不稳定的剪辑的潜在过滤来快速地且准确地传达构建改进对退化的合适的高级概要对开发者是有价值的。管理用户界面210与高级概要一起允许挖掘使开发者能够快速地标识故障剪辑和帧的报告。可用的概要的类型包括以下在表格3中讨论的类型:
应当理解,前述概要只是说明性的。
图15示出根据以上所阐述的讨论的用于创建测试套件的过程。在1502,开发者将确定开发一个或多个应用程序必需的特定应用要求。以上所讨论的一个示例是网球游戏应用,它需要以比其他移动高的准确性来检测特定类型的用户移动。在1504,开发者可遍历元数据搜索具有适合特定应用所需的运动的要求的地面实况的相关联测试数据。在1506,可获取所需测试数据。如果满足特定准则的特定测试数据不可用,则可在1508创建附加合成剪辑或测试剪辑。在1510,可对测试数据排序,并且每一剪辑的持续时间可被设置成播放特定持续时间。
在1512,组装测试套件以供在测试应用中使用,并且在1514,将该套件发送到流水线以供执行。
图16示出基于用户(诸如,用户18)的移动或姿势所调整的模型的示例实施例。
如此处所述,可跟踪用户并将其调整成形成可表示用户在特定时间点挥动他的或她的左手的姿势。可在深度剪辑中捕捉稍后与针对每一姿势的模型82的关节和骨骼相关联的移动信息。
可在深度剪辑中以顺序时间次序在各个时间戳呈现与这些姿势相关联的帧。对于在注释模型的人类用户确定关节或基准关节j1-j8的位置不正确的各个时间戳处的帧,用户可通过移动基准点来调整基准点,如图16所示。例如,在图16中,发现关节j12相对于正确位置(幻影中所示)已位于不正确的位置。
图17示出可用于在目标识别、分析和跟踪系统中解释用户的一个或多个位置和运动的计算环境的示例实施例。以上参考图3A-4所描述的诸如计算环境12之类的计算环境可以是诸如游戏控制台之类的多媒体控制台600。如图17所示,多媒体控制台600包括具有一级高速缓存602、二级高速缓存604和闪存ROM 606的中央处理单元(CPU)601。一级高速缓存602和二级高速缓存604临时存储数据,并且因此减少存储器访问周期的数量,由此改进处理速度和吞吐量。CPU 601可被设置成具有一个以上的内核,并且由此附加一级和二级高速缓存602和604。闪存ROM 606可存储在多媒体控制台600通电时引导过程的初始阶段期间加载的可执行代码。
图形处理单元(GPU)608和视频编码器/视频编解码器(编码器/解码器)614形成用于高速和高分辨率图形处理的视频处理流水线。将数据经由总线从GPU 608传送到视频编码器/视频编解码器614。视频处理流水线将数据输出到A/V(音频/视频)端口640,以供传输到电视机或其他显示器。存储器控制器610连接到GPU 608,以便于处理器对各种类型的存储器612(诸如,但不限于RAM)的访问。
多媒体控制台600包括优选地在模块618上实现的I/O控制器620、系统管理控制器622、音频处理单元623、网络接口控制器624、第一USB主控制器626、第二USB主控制器628以及前面板I/O子部件630。USB控制器626和628用作外围控制器642(1)-642(2)、无线适配器648、以及外置存储器设备646(例如,闪存、外置CD/DVD ROM驱动器、可移动介质等)的主机。网络接口624和/或无线适配器648提供对网络(例如,因特网、家庭网络等)的访问,并且可以是包括以太网卡、调制解调器、蓝牙模块、电缆调制解调器等各种各样的有线或无线适配器组件中任一种。
提供系统存储器643来存储在引导过程期间加载的应用数据。提供介质驱动器644,并且其可包括DVD/CD驱动器、硬盘驱动器,或其他可移动介质驱动器等。介质驱动器644可内置或外置于多媒体控制台600。应用数据可经由介质驱动器644访问,以供多媒体控制台600执行、回放等。介质驱动器644经由诸如串行ATA总线或其他高速连接(例如IEEE 1394)之类的总线连接到I/O控制器620。
系统管理控制器622提供与确保多媒体控制台600的可用性相关的各种服务功能。音频处理单元623和音频编解码器632形成具有高保真度和立体声处理的相应音频处理流水线。音频数据经由通信链路在音频处理单元623与音频编解码器632之间传输。音频处理流水线将数据输出到A/V端口640,以供外置音频播放器或具有音频能力的设备再现。
前面板I/O子部件630支持暴露在多媒体控制台600的外表面上的电源按钮650和弹出按钮652、以及任何LED(发光二极管)或其他指示器的功能。系统供电模块636向多媒体控制台600的组件供电。风扇638冷却多媒体控制台600内的电路。
CPU 601、GPU 608、存储器控制器610、以及多媒体控制台600内的各种其他组件经由一条或多条总线互连,该总线包括串行和并行总线、存储器总线、外围总线、以及使用各种总线体系结构中的任一种的处理器或局部总线。作为示例,此类体系结构可包括外围部件互连(PCI)总线、PCI-Express总线等。
当多媒体控制台600通电时,应用数据可从系统存储器643加载到存储器612和/或高速缓存602、604中,并且可在CPU 601上执行。应用可呈现在导航到在多媒体控制台600上可用的不同媒体类型时提供一致的用户体验的图形用户界面。在操作中,介质驱动器644中所包含的应用和/或其他媒体可从介质驱动器644启动或播放,以将附加功能提供给多媒体控制台600。
多媒体控制台600可通过将该系统简单地连接到电视机或其他显示器而作为独立系统来操作。在该独立模式中,多媒体控制台600允许一个或多个用户与该系统交互、看电影、或听音乐。然而,在通过网络接口624或无线适配器648可用的宽带连接集成的情况下,多媒体控制台600还可作为更大网络社区中的参与者来操作。
当多媒体控制台600通电时,可保留设定量的硬件资源以供多媒体控制台操作系统作系统使用。这些资源可以包括存储器保留量(例如,17MB)、CPU和GPU周期保留量(例如,5%)、网络带宽保留量(例如,8kbs)等。由于这些资源是在系统引导时保留的,因此所保留的资源从应用的角度而言是不存在的。
具体而言,存储器保留优选足够大,以包含启动内核、并发系统应用和驱动器。CPU保留优选为恒定,以使如果所保留的CPU用量不被系统应用使用,则空闲线程将消耗任何未使用的周期。
对于GPU保留,通过使用GPU中断来调度代码以将弹出窗口呈现为覆盖图,从而显示由系统应用程序生成的轻量消息(例如,弹出窗口)。覆盖图所需的存储器量取决于覆盖区域大小,并且覆盖图优选与屏幕分辨率成比例缩放。在完整的用户界面被并发系统应用使用的情况下,优选使用独立于应用分辨率的分辨率。定标器可用于设置该分辨率,从而无需改变频率和引起TV重新同步。
在多媒体控制台600引导且系统资源被保留之后,执行并发系统应用来提供系统功能。系统功能被封装在上述所保留的系统资源内执行的一组系统应用中。操作系统内核标识作为系统应用线程而非游戏应用线程的线程。系统应用优选被调度为在预定时间并以预定时间间隔在CPU 601上运行,从而为应用提供一致的系统资源视图。调度是为了使在控制台上运行的游戏应用所引起的高速缓存分裂最小化。
当并发系统应用需要音频时,由于时间敏感性而将音频处理异步地调度给游戏应用。多媒体控制台应用管理器(如下所描述的)在系统应用活动时控制游戏应用的音频水平(例如,静音、衰减)。
输入设备(例如,控制器642(1)和642(2))由游戏应用和系统应用共享。输入设备不是保留资源,而是在系统应用和游戏应用之间切换以使其各自具有设备的焦点。应用管理器优选控制输入流的切换,而无需知道游戏应用的知识,并且驱动器维护关于焦点切换的状态信息。相机26、28和捕捉设备20可为控制台600定义附加输入设备。
图18示出计算环境720的另一示例实施例,它可以是图3A-4中所示的、用于解释目标识别、分析和跟踪系统中的一个或多个位置和运动的计算环境12。计算系统环境720只是合适的计算环境的一个示例,并且不旨在对当前公开的主题的使用范围或功能提出任何限制。也不应当将计算环境720解释为对示例性操作环境720中所示的任一组件或其组合有任何依赖性或要求。在一些实施例中,各个所示的计算元素可包括被配置成实例化本公开的特定方面的电路。例如,本公开中所使用的术语电路可包括被配置成通过固件或开关来执行功能的专用硬件组件。在其他示例实施例中,术语“电路”可包括通过体现可操作以执行功能的逻辑的软件指令来配置的通用处理单元、存储器等。在电路包括硬件和软件的组合的示例实施例中,实施者可编写体现逻辑的源代码,并且该源代码可被编译为可由通用处理单元处理的机器可读代码。由于本领域技术人员可以理解现有技术已进化到硬件、软件、或硬件/软件组合之间几乎没有差别的地步,因此选择硬件或是软件来实现特定功能是留给实现者的设计选择。更具体地,本领域技术人员可以理解软件过程可被转换成等效的硬件结构,而硬件结构本身可被转换成等效的软件过程。由此,对于硬件实现还是软件实现的选择是设计选择,并且留给实现者。
在图18中,计算环境720包括计算机741,计算机741通常包括各种计算机可读介质。计算机可读介质可以是可由计算机741访问的任何可用介质,而且包括易失性和非易失性介质、可移动和不可移动介质。系统存储器722包括诸如ROM 723和RAM 760之类的易失性和/或非易失性存储器形式的计算机存储介质。包含诸如在启动期间帮助在计算机741内的元件之间传输信息的基本例程的基本输入/输出系统724(BIOS)通常储存储在ROM 723中。RAM 760通常包含处理单元759可立即访问和/或当前正在操作的数据和/或程序模块。作为示例而非限制,图18示出操作系统725、应用程序726、其他程序模块727、以及程序数据728。图18还包括具有用于高速和高分辨率的图形处理和存储的相关联视频存储器730的图形处理器单元(GPU)729。GPU 729可通过图形接口731连接到系统总线721。
计算机741还可包括其他可移动/不可移动、易失性/非易失性计算机存储介质。仅作为示例,图18示出对不可移动、非易失性磁介质进行读写的硬盘驱动器738,对可移动、非易失性磁盘754进行读写的磁盘驱动器739,以及对诸如CD ROM或其他光学介质之类的可移动、非易失性光盘753进行读写的光盘驱动器740。可在示例性操作环境中使用的其他可移动/不可移动、易失性/非易失性计算机存储介质包括但不限于,磁带盒、闪存卡、数字多功能盘、数字录像带、固态RAM、固态ROM等。硬盘驱动器738通常通过诸如接口734之类的不可移动存储器接口连接到系统总线721,并且磁盘驱动器739和光盘驱动器740通常通过诸如接口735之类的可移动存储器接口连接到系统总线721。
以上所讨论的且在图18中所示的驱动器及其相关联计算机存储介质为计算机741提供了对计算机可读的指令、数据结构、程序模块及其他数据的存储。例如,在图18中,硬盘驱动器738被示为存储操作系统758、应用程序757、其他程序模块756、以及程序数据755。注意,这些组件可与操作系统725、应用程序726、其他程序模块727和程序数据728相同,也可与它们不同。此处操作系统758、应用程序757、其他程序模块756、以及程序数据755被赋予不同的编号,以示出至少它们是不同的副本。用户可通过诸如键盘751和定点设备752(通常称为鼠标、跟踪球或触摸垫)之类的输入设备将命令和信息输入计算机741。其他输入设备(未示出)可包括话筒、操纵杆、游戏手柄、圆盘式卫星天线、扫描仪等。这些以及其他输入设备通常通过耦合到系统总线的用户输入接口736连接到处理单元759,但也可通过诸如并行端口、游戏端口或通用串行总线(USB)之类的其他接口和总线结构来连接。相机26、28和捕捉设备20可为控制台700定义附加输入设备。监视器742或其他类型的显示设备也经由诸如视频接口732之类的接口连接到系统总线721。除了监视器以外,计算机还可包括诸如扬声器744和打印机743之类的其他外围输出设备,它们可通过输出外围接口733来连接。
计算机741可使用到一个或多个远程计算机(诸如,远程计算机746)的逻辑连接而在联网环境中操作。远程计算机746可以是个人计算机、服务器、路由器、网络PC、对等设备或其他公共网络节点,并且通常包括以上参考计算机741所描述的许多或全部元件,尽管图18中只示出存储器设备747。图18中所示的逻辑连接包括局域网(LAN)745和广域网(WAN)749,但是还可以包括其他网络。此类联网环境在办公室、企业范围的计算机网络、内联网和因特网中是常见的。
当在LAN网络环境中使用时,计算机741通过网络接口或适配器737连接到LAN 745。当在WAN联网环境中使用时,计算机741通常包括调制解调器750或用于通过诸如因特网之类的WAN 749建立通信的其他手段。调制解调器750可以是内置的或外置的,可经由用户输入接口736或其他适当的机制连接到系统总线721。在联网环境中,相对于计算机741所示的程序模块或其部分可被存储在远程存储器存储设备中。作为示例而非限制,图18示出驻留在存储器设备747上的远程应用程序748。应当理解,所示的网络连接是示例性的,并且可使用在计算机之间建立通信链路的其他手段。
虽然用结构特征和/或方法动作专用的语言描述了本主题,但是应当理解,所附权利要求中定义的主题不必限于以上所描述的特定特征或动作。相反,以上所描述的特定特征和动作是作为实现权利要求的示例形式而公开的。

Claims (10)

1.一种用于验证目标识别、分析和跟踪系统的准确性的方法,所述方法包括:
提供记录和合成的深度(104)以及相关联地面实况数据(105)的可搜索集合(102),所述地面实况数据包括一系列点处的目标运动的关联,所述地面实况样本,在提供给跟踪流水线时,与所述样本的偏差针对所述样本提供误差以确定所述流水线的准确性;
响应于测试所述流水线的请求(170、172),返回所述可搜索集合的至少子集;
接收来自所述可搜索集合的至少子集上的流水线的跟踪数据输出(176、188);以及
生成对所述跟踪数据相对于所述至少子集中的地面实况的分析(178、190),以提供相对于所述地面实况的误差的输出。
2.如权利要求1所述的方法,其特征在于,所述方法还包括:搜索所述可搜索集合,创建测试套件,以及将所述可搜索集合输出到多个处理设备,所述处理设备中的每一个包括所述跟踪流水线的实例。
3.如权利要求2所述的方法,其特征在于,所述生成分析的步骤包括:检测所述流水线的实例所创建的深度数据的经处理版本之间的误差,以及根据一个或多个计算度量分析所述误差,所述一个或多个计算度量提供对所述流水线的跟踪准确性的指示。
4.如权利要求3所述的方法,其特征在于,测试度量针对下列项中的一个或多个来测量跟踪准确性中的总进步和退化:整个场景,单个帧,帧中的单个主体,或用户的特定身体部位。
5.如权利要求3所述的方法,其特征在于,测试度量针对下列项中的一个或多个来测量跟踪准确性中的总进步和退化:背景移除,对模拟玩家表示重定目标,身体部位分类,以及对场景成分的检测。
6.如权利要求1所述的方法,其特征在于,还包括:通过使传感器记录与元数据相关联来创建多个测试数据剪辑,以创建所述地面实况。
7.如权利要求6所述的方法,其特征在于,所述元数据定义每一测试数据剪辑的可测试方面。
8.一种用于验证目标识别、分析和跟踪系统的准确性的系统,所述系统包括:
记录和合成的深度剪辑以及每一深度剪辑的相关联地面实况的可搜索储存库(102),所述地面实况包括在已被验证为准确的深度剪辑中所检测的人类骨架信息的关节位置的关联;
一个或多个处理设备(130、140),每一处理设备包括目标识别、分析和跟踪流水线的至少一个实例;
分析引擎(200),所述分析引擎(200)控制响应于测试所述流水线的请求来提供所述可搜索集合的至少子集、且接收来自所述可搜索集合的子集上的流水线的跟踪数据输出;以及
报告生成器(250),所述报告生成器(250)输出对所述跟踪数据相对于所述至少子集中的地面实况的分析,以提供相对于所述地面实况的误差的输出。
9.如权利要求8所述的系统,其特征在于,包括多个处理设备,每一处理设备包括所述目标识别、分析和跟踪流水线的实例。
10.如权利要求9所述的系统,其特征在于,所述分析引擎包括作业控制器,所述作业控制器提供实现所述多个处理设备中的每一个上的各个实例的指令,并且将所述可搜索集合的子集输出到所述多个处理设备中的处理设备。
CN201110443266.XA 2010-12-17 2011-12-16 对人类目标跟踪的确认分析 Active CN102609954B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/972,341 US8448056B2 (en) 2010-12-17 2010-12-17 Validation analysis of human target
US12/972,341 2010-12-17

Publications (2)

Publication Number Publication Date
CN102609954A true CN102609954A (zh) 2012-07-25
CN102609954B CN102609954B (zh) 2015-12-09

Family

ID=46236109

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110443266.XA Active CN102609954B (zh) 2010-12-17 2011-12-16 对人类目标跟踪的确认分析

Country Status (3)

Country Link
US (2) US8448056B2 (zh)
CN (1) CN102609954B (zh)
HK (1) HK1171854A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105264436A (zh) * 2013-04-05 2016-01-20 安德拉运动技术股份有限公司 用于控制与图像捕捉有关的设备的系统和方法
CN107818574A (zh) * 2017-09-21 2018-03-20 楚雄师范学院 基于骨架分析的鱼群三维跟踪方法
CN108052585A (zh) * 2017-12-11 2018-05-18 江苏丰华谷科技发展有限公司 一种复杂环境中动态目标的判定方法
TWI640959B (zh) * 2017-08-04 2018-11-11 適着三維科技股份有限公司 校準設備
CN109863510A (zh) * 2016-10-24 2019-06-07 斯纳普公司 冗余跟踪系统
CN111556993A (zh) * 2017-12-20 2020-08-18 雨林质量保证公司 电子产品测试系统和方法
CN109427046B (zh) * 2017-08-30 2021-07-20 深圳中科飞测科技股份有限公司 三维测量的畸变校正方法、装置及计算机可读存储介质

Families Citing this family (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8527217B2 (en) * 2009-09-08 2013-09-03 Dynamic Athletic Research Institute, Llc Apparatus and method for physical evaluation
US9789392B1 (en) * 2010-07-09 2017-10-17 Open Invention Network Llc Action or position triggers in a game play mode
US8448056B2 (en) 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target
US9811373B2 (en) * 2011-02-09 2017-11-07 Nec Corporation Analysis engine control device
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US8571263B2 (en) * 2011-03-17 2013-10-29 Microsoft Corporation Predicting joint positions
US9013489B2 (en) * 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US20120320216A1 (en) * 2011-06-14 2012-12-20 Disney Enterprises, Inc. Method and System for Object Recognition, Authentication, and Tracking with Infrared Distortion Caused by Objects for Augmented Reality
US9974466B2 (en) 2011-10-17 2018-05-22 Atlas5D, Inc. Method and apparatus for detecting change in health status
US9817017B2 (en) * 2011-10-17 2017-11-14 Atlas5D, Inc. Method and apparatus for monitoring individuals while protecting their privacy
US9341464B2 (en) 2011-10-17 2016-05-17 Atlas5D, Inc. Method and apparatus for sizing and fitting an individual for apparel, accessories, or prosthetics
US9628843B2 (en) * 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
US8923556B2 (en) * 2011-12-17 2014-12-30 Symbol Technologies, Inc. Method and apparatus for detecting people within video frames based upon multiple colors within their clothing
US9367745B2 (en) 2012-04-24 2016-06-14 Liveclips Llc System for annotating media content for automatic content understanding
US20130283143A1 (en) 2012-04-24 2013-10-24 Eric David Petajan System for Annotating Media Content for Automatic Content Understanding
US20140045593A1 (en) * 2012-08-07 2014-02-13 Microsoft Corporation Virtual joint orientation in virtual skeleton
TWI590099B (zh) * 2012-09-27 2017-07-01 緯創資通股份有限公司 互動系統及移動偵測方法
CN103781232A (zh) * 2012-10-26 2014-05-07 富泰华工业(深圳)有限公司 Led灯照明控制系统及方法
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9052746B2 (en) 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9135516B2 (en) 2013-03-08 2015-09-15 Microsoft Technology Licensing, Llc User body angle, curvature and average extremity positions extraction using depth images
US9092657B2 (en) 2013-03-13 2015-07-28 Microsoft Technology Licensing, Llc Depth image processing
US9142034B2 (en) 2013-03-14 2015-09-22 Microsoft Technology Licensing, Llc Center of mass state vector for analyzing user motion in 3D images
US9159140B2 (en) 2013-03-14 2015-10-13 Microsoft Technology Licensing, Llc Signal analysis for repetition detection and analysis
US9715005B2 (en) 2013-06-06 2017-07-25 Zih Corp. Method, apparatus, and computer program product improving real time location systems with multiple location technologies
US11423464B2 (en) 2013-06-06 2022-08-23 Zebra Technologies Corporation Method, apparatus, and computer program product for enhancement of fan experience based on location data
US10609762B2 (en) 2013-06-06 2020-03-31 Zebra Technologies Corporation Method, apparatus, and computer program product improving backhaul of sensor and other data to real time location system network
US10437658B2 (en) 2013-06-06 2019-10-08 Zebra Technologies Corporation Method, apparatus, and computer program product for collecting and displaying sporting event data based on real time data for proximity and movement of objects
US9699278B2 (en) 2013-06-06 2017-07-04 Zih Corp. Modular location tag for a real time location system network
US9517417B2 (en) 2013-06-06 2016-12-13 Zih Corp. Method, apparatus, and computer program product for performance analytics determining participant statistical data and game status data
US20140364973A1 (en) 2013-06-06 2014-12-11 Zih Corp. Method, apparatus, and computer program product for monitoring health, fitness, operation, or performance of individuals
TWI503756B (zh) * 2013-08-15 2015-10-11 Univ Nat Taiwan 人型影像追蹤系統及其人型影像偵測方法與追蹤方法
ES2763912T3 (es) * 2013-08-20 2020-06-01 Curefab Tech Gmbh Seguimiento óptico
IN2013MU04097A (zh) * 2013-12-27 2015-08-07 Tata Consultancy Services Ltd
US9600993B2 (en) 2014-01-27 2017-03-21 Atlas5D, Inc. Method and system for behavior detection
WO2015126392A1 (en) 2014-02-20 2015-08-27 Hewlett-Packard Development Company, L.P. Emulating a user performing spatial gestures
US9626766B2 (en) * 2014-02-28 2017-04-18 Microsoft Technology Licensing, Llc Depth sensing using an RGB camera
WO2015142019A1 (en) 2014-03-21 2015-09-24 Samsung Electronics Co., Ltd. Method and apparatus for preventing a collision between subjects
US9953243B2 (en) * 2014-04-25 2018-04-24 Google Llc Electronic device localization based on imagery
US20150375083A1 (en) 2014-06-05 2015-12-31 Zih Corp. Method, Apparatus, And Computer Program Product For Enhancement Of Event Visualizations Based On Location Data
US9661455B2 (en) 2014-06-05 2017-05-23 Zih Corp. Method, apparatus, and computer program product for real time location system referencing in physically and radio frequency challenged environments
US9668164B2 (en) 2014-06-05 2017-05-30 Zih Corp. Receiver processor for bandwidth management of a multiple receiver real-time location system (RTLS)
GB2541834B (en) 2014-06-05 2020-12-23 Zebra Tech Corp Receiver processor for adaptive windowing and high-resolution TOA determination in a multiple receiver target location system
US10261169B2 (en) 2014-06-05 2019-04-16 Zebra Technologies Corporation Method for iterative target location in a multiple receiver target location system
US9626616B2 (en) 2014-06-05 2017-04-18 Zih Corp. Low-profile real-time location system tag
WO2015187991A1 (en) 2014-06-05 2015-12-10 Zih Corp. Systems, apparatus and methods for variable rate ultra-wideband communications
EP3152585B1 (en) 2014-06-06 2022-04-27 Zebra Technologies Corporation Method, apparatus, and computer program product improving real time location systems with multiple location technologies
US9759803B2 (en) 2014-06-06 2017-09-12 Zih Corp. Method, apparatus, and computer program product for employing a spatial association model in a real time location system
US9541415B2 (en) 2014-08-28 2017-01-10 Telenav, Inc. Navigation system with touchless command mechanism and method of operation thereof
US9507995B2 (en) * 2014-08-29 2016-11-29 X Development Llc Combination of stereo and structured-light processing
ES2892354T3 (es) * 2014-11-06 2022-02-03 Fundacion Tecnalia Res & Innovation Método y sistema para la evaluación del equilibrio funcional
US20160142700A1 (en) * 2014-11-19 2016-05-19 Ginni Grover Measuring Accuracy of Image Based Depth Sensing Systems
CN105809708A (zh) * 2014-12-31 2016-07-27 北京智诺英特科技有限公司 图像的追踪方法和装置
JP6492746B2 (ja) * 2015-02-23 2019-04-03 富士通株式会社 画像処理プログラム、画像処理装置、及び画像処理方法
US10013756B2 (en) 2015-03-13 2018-07-03 Atlas5D, Inc. Methods and systems for measuring use of an assistive device for ambulation
WO2017000115A1 (zh) * 2015-06-29 2017-01-05 北京旷视科技有限公司 行人再识别方法及设备
US10241990B2 (en) * 2015-08-26 2019-03-26 Microsoft Technology Licensing, Llc Gesture based annotations
JP2017084065A (ja) * 2015-10-27 2017-05-18 株式会社東芝 なりすまし検出装置
JP6772023B2 (ja) * 2015-10-30 2020-10-21 コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド ユーザー状態検出による集団相互作用の方法及びシステム
US9870622B1 (en) * 2016-07-18 2018-01-16 Dyaco International, Inc. Systems and methods for analyzing a motion based on images
US11017901B2 (en) 2016-08-02 2021-05-25 Atlas5D, Inc. Systems and methods to identify persons and/or identify and quantify pain, fatigue, mood, and intent with protection of privacy
US10162736B2 (en) 2016-11-17 2018-12-25 International Business Machines Corporation Smart emulator for wearable devices
KR101975056B1 (ko) * 2016-12-02 2019-05-07 한국전자통신연구원 사용자 맞춤형 트레이닝 시스템 및 이의 트레이닝 서비스 제공 방법
US10839203B1 (en) * 2016-12-27 2020-11-17 Amazon Technologies, Inc. Recognizing and tracking poses using digital imagery captured from multiple fields of view
GB2560177A (en) 2017-03-01 2018-09-05 Thirdeye Labs Ltd Training a computational neural network
GB2560387B (en) 2017-03-10 2022-03-09 Standard Cognition Corp Action identification using neural networks
US10699421B1 (en) 2017-03-29 2020-06-30 Amazon Technologies, Inc. Tracking objects in three-dimensional space using calibrated visual cameras and depth cameras
US11372473B2 (en) * 2017-05-18 2022-06-28 Sony Corporation Information processing apparatus and information processing method
US10055853B1 (en) * 2017-08-07 2018-08-21 Standard Cognition, Corp Subject identification and tracking using image recognition
US10445694B2 (en) 2017-08-07 2019-10-15 Standard Cognition, Corp. Realtime inventory tracking using deep learning
US11200692B2 (en) 2017-08-07 2021-12-14 Standard Cognition, Corp Systems and methods to check-in shoppers in a cashier-less store
CA3072062A1 (en) * 2017-08-07 2019-02-14 Standard Cognition, Corp. Predicting inventory events using foreground/background processing
US10133933B1 (en) 2017-08-07 2018-11-20 Standard Cognition, Corp Item put and take detection using image recognition
US11232687B2 (en) 2017-08-07 2022-01-25 Standard Cognition, Corp Deep learning-based shopper statuses in a cashier-less store
US10650545B2 (en) 2017-08-07 2020-05-12 Standard Cognition, Corp. Systems and methods to check-in shoppers in a cashier-less store
US10474991B2 (en) 2017-08-07 2019-11-12 Standard Cognition, Corp. Deep learning-based store realograms
US11023850B2 (en) 2017-08-07 2021-06-01 Standard Cognition, Corp. Realtime inventory location management using deep learning
US11250376B2 (en) 2017-08-07 2022-02-15 Standard Cognition, Corp Product correlation analysis using deep learning
US10474988B2 (en) 2017-08-07 2019-11-12 Standard Cognition, Corp. Predicting inventory events using foreground/background processing
US10853965B2 (en) 2017-08-07 2020-12-01 Standard Cognition, Corp Directional impression analysis using deep learning
US10127438B1 (en) 2017-08-07 2018-11-13 Standard Cognition, Corp Predicting inventory events using semantic diffing
US11232294B1 (en) 2017-09-27 2022-01-25 Amazon Technologies, Inc. Generating tracklets from digital imagery
US11030442B1 (en) 2017-12-13 2021-06-08 Amazon Technologies, Inc. Associating events with actors based on digital imagery
US11284041B1 (en) 2017-12-13 2022-03-22 Amazon Technologies, Inc. Associating items with actors based on digital imagery
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
CN108187343B (zh) * 2018-01-16 2020-03-03 腾讯科技(深圳)有限公司 数据交互方法和装置、存储介质及电子装置
US11010597B1 (en) 2018-05-10 2021-05-18 Ism Connect, Llc Entry prevention of persons of interest from venues and events using facial recognition
US11544965B1 (en) 2018-05-10 2023-01-03 Wicket, Llc System and method for access control using a plurality of images
US11482045B1 (en) 2018-06-28 2022-10-25 Amazon Technologies, Inc. Associating events with actors using digital imagery and machine learning
US11468681B1 (en) 2018-06-28 2022-10-11 Amazon Technologies, Inc. Associating events with actors using digital imagery and machine learning
US11468698B1 (en) 2018-06-28 2022-10-11 Amazon Technologies, Inc. Associating events with actors using digital imagery and machine learning
US10860845B2 (en) * 2018-10-22 2020-12-08 Robert Bosch Gmbh Method and system for automatic repetitive step and cycle detection for manual assembly line operations
US11386562B2 (en) 2018-12-28 2022-07-12 Cyberlink Corp. Systems and methods for foreground and background processing of content in a live video
US11232575B2 (en) 2019-04-18 2022-01-25 Standard Cognition, Corp Systems and methods for deep learning-based subject persistence
US20220230376A1 (en) * 2019-05-17 2022-07-21 Nvidia Corporation Motion prediction using one or more neural networks
JP7401199B2 (ja) * 2019-06-13 2023-12-19 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
US11176320B2 (en) 2019-10-22 2021-11-16 International Business Machines Corporation Ascribing ground truth performance to annotation blocks
US11823452B2 (en) 2020-01-23 2023-11-21 Alarm.Com Incorporated Video analytics evaluation
US11398094B1 (en) 2020-04-06 2022-07-26 Amazon Technologies, Inc. Locally and globally locating actors by digital cameras and machine learning
US11443516B1 (en) 2020-04-06 2022-09-13 Amazon Technologies, Inc. Locally and globally locating actors by digital cameras and machine learning
US11151390B1 (en) * 2020-05-21 2021-10-19 Ism Connect, Llc Self-correcting face detection pipeline-based method and apparatus for censusing a crowd
US11361468B2 (en) 2020-06-26 2022-06-14 Standard Cognition, Corp. Systems and methods for automated recalibration of sensors for autonomous checkout
US11303853B2 (en) 2020-06-26 2022-04-12 Standard Cognition, Corp. Systems and methods for automated design of camera placement and cameras arrangements for autonomous checkout

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6011507A (en) * 1996-11-12 2000-01-04 Raytheon Company Radar system and method of operating same
JP2005135186A (ja) * 2003-10-30 2005-05-26 Toshiba Corp 規範モデル追従型制御システム及び規範モデル追従型制御方法
CN101325691A (zh) * 2007-06-14 2008-12-17 清华大学 融合不同生存期的多个观测模型的跟踪方法和跟踪装置

Family Cites Families (172)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4288078A (en) 1979-11-20 1981-09-08 Lugo Julio I Game apparatus
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (zh) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
DE69229474T2 (de) 1991-12-03 2000-03-02 French Sportech Corp Interaktives videosystem zur beobachtung und zum training der leistungsfähigkeit einer person
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
JP3481631B2 (ja) 1995-06-07 2003-12-22 ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
JP2000510013A (ja) 1996-05-08 2000-08-08 リアル ヴィジョン コーポレイション 位置検出を用いたリアルタイムシミュレーション
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
JP2001504605A (ja) 1996-08-14 2001-04-03 ラティポフ,ヌラフメド,ヌリスラモビチ 空間内のユーザの位置及び方向性を追跡及び表示するための方法、ユーザに対し仮想環境を提示するための方法及びこれらの方法を実現するためのシステム
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
DE69626208T2 (de) 1996-12-20 2003-11-13 Hitachi Europ Ltd Verfahren und System zur Erkennung von Handgesten
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
GB9706839D0 (en) 1997-04-04 1997-05-21 Orad Hi Tec Systems Ltd Graphical video systems
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
AU1099899A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
AU9808298A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. A system and method for generating an animatable character
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
EP0991011B1 (en) 1998-09-28 2007-07-25 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
WO2000034919A1 (en) 1998-12-04 2000-06-15 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
WO2000036372A1 (en) 1998-12-16 2000-06-22 3Dv Systems, Ltd. Self gating photosurface
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
US6663491B2 (en) 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US7006950B1 (en) * 2000-06-12 2006-02-28 Siemens Corporate Research, Inc. Statistical modeling and performance characterization of a real-time dual camera surveillance system
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
US7607509B2 (en) 2002-04-19 2009-10-27 Iee International Electronics & Engineering S.A. Safety device for a vehicle
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US8599266B2 (en) * 2002-07-01 2013-12-03 The Regents Of The University Of California Digital processing of video images
GB2395779A (en) 2002-11-29 2004-06-02 Sony Uk Ltd Face detection
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
DE602004006190T8 (de) 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
JP4355341B2 (ja) 2003-05-29 2009-10-28 本田技研工業株式会社 深度データを用いたビジュアルトラッキング
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
EP3190546A3 (en) 2003-06-12 2017-10-04 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
WO2005104010A2 (en) 2004-04-15 2005-11-03 Gesture Tek, Inc. Tracking bimanual movements
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US8019801B1 (en) * 2004-06-23 2011-09-13 Mayo Foundation For Medical Education And Research Techniques to rate the validity of multiple methods to process multi-dimensional data
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
CN101198964A (zh) 2005-01-07 2008-06-11 格斯图尔泰克股份有限公司 使用红外图案照射创建对象的三维图像
EP2487624B1 (en) 2005-01-07 2020-02-19 Qualcomm Incorporated(1/3) Detecting and tracking objects in images
EP1849123A2 (en) 2005-01-07 2007-10-31 GestureTek, Inc. Optical flow based tilt sensor
US7598942B2 (en) 2005-02-08 2009-10-06 Oblong Industries, Inc. System and method for gesture based control system
JP4686595B2 (ja) 2005-03-17 2011-05-25 本田技研工業株式会社 クリティカルポイント解析に基づくポーズ推定
BRPI0613165A2 (pt) 2005-05-17 2010-12-21 Gesturetek Inc saìda de sinal sensìvel à orientação
EP1752748B1 (en) 2005-08-12 2008-10-29 MESA Imaging AG Highly sensitive, fast pixel for use in an image sensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
JP4208898B2 (ja) 2006-06-09 2009-01-14 株式会社ソニー・コンピュータエンタテインメント 対象物追跡装置および対象物追跡方法
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
US8073196B2 (en) * 2006-10-16 2011-12-06 University Of Southern California Detection and tracking of moving objects from a moving platform in presence of strong parallax
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
US8154578B2 (en) 2007-05-31 2012-04-10 Eastman Kodak Company Multi-camera residential communication system
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
EP2243125B1 (en) * 2007-12-13 2020-04-29 Clemson University Research Foundation Vision based real time traffic monitoring
CN101254344B (zh) 2008-04-18 2010-06-16 李刚 场地方位与显示屏点阵按比例相对应的游戏装置和方法
KR101497659B1 (ko) * 2008-12-04 2015-03-02 삼성전자주식회사 깊이 영상을 보정하는 방법 및 장치
TWI492188B (zh) * 2008-12-25 2015-07-11 Univ Nat Chiao Tung 利用多攝影機自動偵測與追蹤多目標的方法及系統
US8269849B2 (en) * 2009-01-23 2012-09-18 Hewlett-Packard Development Company, L.P. Method and system for testing image pipelines
US20110026770A1 (en) * 2009-07-31 2011-02-03 Jonathan David Brookshire Person Following Using Histograms of Oriented Gradients
US8448056B2 (en) 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6011507A (en) * 1996-11-12 2000-01-04 Raytheon Company Radar system and method of operating same
JP2005135186A (ja) * 2003-10-30 2005-05-26 Toshiba Corp 規範モデル追従型制御システム及び規範モデル追従型制御方法
CN101325691A (zh) * 2007-06-14 2008-12-17 清华大学 融合不同生存期的多个观测模型的跟踪方法和跟踪装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105264436A (zh) * 2013-04-05 2016-01-20 安德拉运动技术股份有限公司 用于控制与图像捕捉有关的设备的系统和方法
CN105264436B (zh) * 2013-04-05 2019-03-08 安德拉运动技术股份有限公司 用于控制与图像捕捉有关的设备的系统和方法
CN109863510A (zh) * 2016-10-24 2019-06-07 斯纳普公司 冗余跟踪系统
TWI640959B (zh) * 2017-08-04 2018-11-11 適着三維科技股份有限公司 校準設備
CN109427046B (zh) * 2017-08-30 2021-07-20 深圳中科飞测科技股份有限公司 三维测量的畸变校正方法、装置及计算机可读存储介质
CN107818574A (zh) * 2017-09-21 2018-03-20 楚雄师范学院 基于骨架分析的鱼群三维跟踪方法
CN107818574B (zh) * 2017-09-21 2021-08-27 楚雄师范学院 基于骨架分析的鱼群三维跟踪方法
CN108052585A (zh) * 2017-12-11 2018-05-18 江苏丰华谷科技发展有限公司 一种复杂环境中动态目标的判定方法
CN108052585B (zh) * 2017-12-11 2021-11-23 江苏丰华联合科技有限公司 一种复杂环境中动态目标的判定方法
CN111556993A (zh) * 2017-12-20 2020-08-18 雨林质量保证公司 电子产品测试系统和方法

Also Published As

Publication number Publication date
US20130251204A1 (en) 2013-09-26
HK1171854A1 (zh) 2013-04-05
US8448056B2 (en) 2013-05-21
US20120159290A1 (en) 2012-06-21
US8775916B2 (en) 2014-07-08
CN102609954B (zh) 2015-12-09

Similar Documents

Publication Publication Date Title
CN102609954B (zh) 对人类目标跟踪的确认分析
CN102194105B (zh) 用于人体跟踪的代表训练数据
CN102184009B (zh) 跟踪系统中的手位置后处理精炼
CN102656542B (zh) 用于演示的相机导航
CN102549619B (zh) 人类跟踪系统
CN102402288B (zh) 用于快速且概率性的骨架跟踪的系统
CN102413885B (zh) 用于对运动捕捉应用模型跟踪的系统和方法
CN102693413B (zh) 运动识别
CN102665838B (zh) 用于确定和跟踪目标的肢端的方法和系统
CN102576466B (zh) 用于跟踪模型的系统和方法
CN102129152B (zh) 具有集成vcsel阵列的深度投影仪系统
US9245177B2 (en) Limiting avatar gesture display
CN102222431B (zh) 用于翻译手语的计算机实现的方法
CN102448562B (zh) 用于跟踪模型的系统和方法
CN102332090B (zh) 划分在视野内的焦点区域
CN102622774B (zh) 起居室电影创建
CN102222347B (zh) 使用波阵面编码来创建深度图像
CN103608844A (zh) 全自动动态关节连接的模型校准
CN102317977A (zh) 用于姿势识别的方法和系统
CN102129551A (zh) 基于关节跳过的姿势检测
CN103038727A (zh) 骨架关节识别和跟踪系统
CN102184020A (zh) 用于操纵用户界面的姿势和姿势修改
CN102141838A (zh) 基于视觉的身份跟踪
CN102681657A (zh) 交互式内容创建
CN102262438A (zh) 用于操纵用户界面的姿势和姿势识别

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1171854

Country of ref document: HK

ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150722

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20150722

Address after: Washington State

Applicant after: Micro soft technique license Co., Ltd

Address before: Washington State

Applicant before: Microsoft Corp.

C14 Grant of patent or utility model
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: GR

Ref document number: 1171854

Country of ref document: HK