CN104620201A - 不需要指针的三维虚拟对象信息获得装置 - Google Patents

不需要指针的三维虚拟对象信息获得装置 Download PDF

Info

Publication number
CN104620201A
CN104620201A CN201380021523.8A CN201380021523A CN104620201A CN 104620201 A CN104620201 A CN 104620201A CN 201380021523 A CN201380021523 A CN 201380021523A CN 104620201 A CN104620201 A CN 104620201A
Authority
CN
China
Prior art keywords
mentioned
dimensional
user
coordinate
object information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201380021523.8A
Other languages
English (en)
Inventor
金石中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vtouch Co Ltd
Original Assignee
Vtouch Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vtouch Co Ltd filed Critical Vtouch Co Ltd
Publication of CN104620201A publication Critical patent/CN104620201A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • G06F3/0321Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface by optically sensing the absolute position with respect to a regularly patterned surface forming a passive digitiser, e.g. pen optically detecting position indicative tags printed on a paper sheet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay

Abstract

本发明提供了一种装置,此装置在拥有虚拟触摸装置的区域中,可利用虚拟触摸,与在三维立体建筑物接触面的空间坐标向配对,从而获得信息的三维虚拟对象信息装置。在此利用三维地图信息和GPS位置信息的三维虚拟对象信息获得装置中包含了:计算出使用者身体三维坐标数据,从而计算出第1空间坐标及第2空间坐标的三维坐标计算部;通过上述三维地图信息及上述GPS的位置信息,使上述三维坐标计算部中计算出的第1空间坐标及第2空间坐标相配对,计算出连接上述第1空间坐标及第2空间坐标的直线通过上述三维地图信息与建筑物相对接触面的虚拟对象接点坐标的虚拟位置计算部;计算出属于上述触摸位置计算部中计算出的虚拟对象坐标数据的虚拟对象(位置),然后把计算出的虚拟对象的相关信息提供给使用者终端设备或是上述三维虚拟对象信息获得装置的显示部的空间位置配对部。

Description

不需要指针的三维虚拟对象信息获得装置
技术领域
本发明涉及到一种获得与三维空间坐标配对的三维虚拟对象信息的装置,特别是,利用不需要指针的虚拟触摸方式获得三维虚拟对象信息的装置。
背景技术
本发明是从传统的触摸屏技术(无指针)和显示器的指针技术(有指针)的比较中得来的。触摸屏技术作为一种普通电子设备的使用方法正被广泛使用。与现存通过鼠标来操作的电脑、智能电视等电子设备相比,触摸屏技术的优点在于不需要在显示器上显示指针。即,使用者不需要为了操作电子设备而把指标(电脑光标)移动到所属位置(比如,软件图标),使用者只需把手直接放到图标上并触摸即可完成操作。即,在此触摸屏技术中,可以省略掉现存的、作为控制电子设备所必需的“指针生成及移动阶段”,从而能够快速、直观地操作电子设备。
本发明是关于:在远程中也可体现上述触摸屏技术效果(直观的接口)的、“利用眼和手指的触摸(以下简称为“虚拟触摸”)方式为基础,采用“利用眼和手指的触摸”方式,从而获得三维虚拟对象信息的装置。最近,随着通讯技术和IT技术的发展,高速且大容量数据的传输,不仅能够通过有线,也可通过无线通讯完成。
随着移动通讯终端设备的不断换代,更大的信息量能够在更短的时间内传输、接收,并附加了多种功能。而且,UI(User Interface)功能更是提升了以使用者为中心的便利性。另外,智能手机(Smart Phone)、平板电脑(携带用终端设备)占据主要形势,其更是以使用者为中心、更看重便利性。因此,这种携带用终端设备多种内容(Contents)的提供将符合使用者的要求和需求,完成更多的开发和应用。并且,最近,能够通过携带用终端设备,获得地域信息的周边商店信息移动通讯服务已经被开发并投入使用。这是通过携带用终端设备等多种移动通讯器才能带来的服务。具有代表性的,以地域商店为对象,在商店入口处设置标记,若使用者把手机贴近标记,则商店中所出售的物品、食物及价格等大量信息就会被移动通讯服务接收,或是使用者一边沿路移动,一边拍摄商店招牌的话,通过拍摄好的影像信息及安装在携带用终端设备上的GPS获得现在的位置信息,从而掌握所属建筑物或是商店,获得其大量信息。
但是,这种移动通讯服务只有当使用者移动至所属商店或建筑物前才能完成。另外,只有读取商店中设置的标记或必须拍摄所属商店或建筑物,才能收到由移动通讯服务提供的与其相对应的大量信息。因此,使用者若想获得心仪商店或建筑物的信息就一定要接近这个商店或是建筑物才行,不仅如此,还必须麻烦地读取标记或通过摄像机拍摄才能够得到信息。
发明内容
技术问题
因此,本发明是为了解决上述问题而提案的,其目的在于提供了一种使用眼和手指的三维虚拟对象信息获得装置,此装置在拥有利用眼和手指的虚拟触摸装置的区域中接触到三维立体建筑物,并与此接触面的空间坐标配对从而获得虚拟对象信息。
课题的解决方法
为了达成上述目标,根据本发明的三维虚拟对象信息获得装置的特征是构成包含了:利用三维地图信息和GPS位置信息的三维虚拟对象信息获得装置,计算出使用者身体三维坐标数据,从而计算出第1空间坐标及第2空间坐标的三维坐标计算部;通过上述三维地图信息及上述GPS的位置信息,使上述三维坐标计算部中计算出的第1空间坐标及第2空间坐标相配对,计算出连接上述第1空间坐标及第2空间坐标的直线通过上述三维地图信息与建筑物相对接触面的虚拟对象接点坐标的虚拟位置计算部;计算出属于上述触摸位置计算部中计算出的虚拟对象坐标数据的虚拟对象(位置),然后把计算出的虚拟对象的相关信息提供给使用者终端设备或是上述三维虚拟对象信息获得装置的显示部的空间位置配对部。
最为理想的上述三维地图信息,其特征是:是由有、无线网络连接起来的、外部的三维地理信息提供服务器提供的。
最为理想的上述三维地图信息,其特征是:已经储存在三维虚拟对象信息获得装置内部。
最为理想的上述三维坐标计算部,其特征是:利用时间迟延测定法(Time of Flight)计算出上述三维坐标数据。
最为理想的上述三维坐标计算部,其特征包含了是:由两个以上、安装在不同位置的传感器构成的、用来拍摄不同角度的使用者身体的影像获得部;从上述影像获得部中接收到从不同角度拍摄到的使用者身体的影像后,以此为基础,利用光学三角测量法计算出使用者身体的三维坐标数据的空间坐标计算部。
最为理想的上述三维坐标计算部,其特征是:把已经编码的模式影像投影在使用者身上,然后以处理构造光投影场面的影像来处理,从而获得上述三维坐标数据。
最为理想的上述三维坐标计算部,其特征是包含了:由光源和散光器构成、用来把散斑图投影在使用者身体上的照明组件;由图像传感器和凸镜构成、用来捕捉通过上述照明组件投影在上述使用者身体上的散斑图的影像获得部;以及利用上述影像获得部捕捉到得散斑图计算出使用者身体的三维坐标数据的空间坐标计算图。
最为理想的上述三维坐标计算部,其特征是:两个以上,并且安装于不同位置。
最为理想的上述第1空间坐标,其特征是:第1空间坐标是上述使用者手指中某一手指的手指,上述使用者用手握住的指针端部中某一个的三维坐标,而上述第2空间坐标就是使用者某一侧眼睛的中心点的三维坐标。
最为理想的上述第1空间坐标,其特征是:第1空间坐标是上述使用者手指中两个以上的手指的三维坐标,上述第2空间坐标是上述使用者某一侧眼睛中心点的三维坐标。
发明效果
上文中解释说明的本发明不需要指针的三维对象信息获得装置将达到以下效果。
首先,能够在设置虚拟触摸装置的场所中远程选择位于其他区域的三维空间内的物品、建筑物及商店。因此,使用者即使不靠近所属的商店或建筑物也可以远程、并且非常方便地获得关于此商店或建筑物的虚拟对象信息。
第二,所谓安装虚拟触摸装置的虚拟触摸装置设置场所,不仅可以是室内外还可以使用三维虚拟对象信息获得装置。虽然图1中图示的是以室内的空间作为虚拟触摸装置设置场所,但本发明的三维虚拟对象信息获得装置在游乐园、动物园、植物园等室外也可以设置虚拟触摸装置,及不管是何地都可以体现。
第三,本发明也可以应用到广告领域及教育领域。本发明中与三维地图信息的三维坐标相对应的三维虚拟对象信息的内容可以是广告。因此,使与虚拟对象向对应,以刊登所属商店广告的形式向使用者提供广告。另外,本发明也可应用于教育领域。例如,在安装了虚拟触摸装置的博物馆展览厅中,使用者选择了正在展示的、具有三维坐标的文物(虚拟对象),那么与所属文物相关的信息(虚拟对象信息)将显示在使用者的终端设备或是三维虚拟对象信息获得装置的显示器上,从而带来了教育效果。此外,本发明还可应用于其他不同的领域。
附图说明
图1展示的是使用根据本发明实施例的利用虚拟触摸的三维虚拟对象信息获得装置的构成图。
图2展示的是图1中用来完成三维坐标计算方法中光学三角测量法的三维坐标计算部的结构图。
图3展示的是图1中用来完成三维坐标计算方法中构造光法的三维坐标计算部的结构图。
图4展示的是用来解释说明根据本发明实施例的不需要指针的三维虚拟对象信息获得法的流程图。
具体实施方式
为了更明确地了解本发明的其他目的、特性及优点,以下将参考附加图面,对本发明的实施例做更详尽的解释说明。
根据本发明的不需要指针的三维虚拟对象信息获得装置的理想实施例,将参考附加图片进行以下解释说明。但是,本发明并不仅限于以下所揭示的实施例,而是能够展现出多种不同的形态,只要本实施例能够完整地展示本发明,那么具有一般常识的读者就能够完整地理解本发明的范围。另外,本说明书中所记载的实施例与图面中图示的构成仅仅是本发明最为理想化的一种实施例,并不能代表本发明所有的技术性思想,因此在此申请阶段中可有能够代替它们的多种相同物和变形例。
图1展示的是使用根据本发明实施例的利用虚拟触摸的三维虚拟对象信息获得装置的构成图。
如图1所示,三维对象信息获得装置利用通过摄像机(10)拍摄的影像计算出三维坐标数据,然后计算出第1空间坐标及第2空间坐标的三维坐标计算部(100);通过三维地图信息及GPS(Global Position System)得到的位置信息与三维坐标计算部(100)中计算出的第1空间坐标(A)及第2空间坐标(B)相配对,计算出连接上述第1空间坐标(A)及第2空间坐标(B)的直线通过上述三维地图信息与建筑物相对接触面的虚拟对象接点坐标数据(C)的虚拟位置计算部(200);计算出属于上述触摸位置计算部中(200)计算出的虚拟对象坐标数据(C)的虚拟对象(例如:A建筑物301号入住的企业),然后把计算出的虚拟对象的相关信息提供给使用者终端设备(20)或是上述三维虚拟对象信息获得装置的显示部(未图示)的空间位置配对部(300)。即,述使用者终端设备(20)一般来说为使用者拿着的手机。根据本发明一个实施例,也可以向上述三维虚拟对象信息获得装置上具备的显示部(未图示)提供相关信息。
另外,本发明是以GPS卫星为基础实施的,但是GPS信号未达到的室内空间中,可以通过设置多个wifi来提供位置信息,这个方法是完全可以被应用的。
在这里,作为“虚拟对象”,不仅仅指的是建筑物整体、位于建筑物中的公司或是商店等,占据特定空间的物品也可称为虚拟对象。例如,作为具有事先输入好的三维地图信息及GPS位置信息,博物馆的文物或是展示厅的作品也可以成为虚拟对象。因此,可以向使用者提供使用者指向的文物或是作品的相关信息。
另外,“虚拟对象的相关信息”是指向“虚拟对象”赋予的信息。向虚拟对象赋予虚拟对象相关信息的方法为:作为与一般接口相关的技术,只要是本法明所属技术领域的从业人很容易就明白并能够具体体现,因此省略不提。虚拟对象的相关信息可以是公司名称、公司地址、业务种类等,也可以登载公司的广告。因此,根据本发明的三维虚拟对象信息获得装置也可以应用于广告系统。
这时,三维地图信息是由有、无线网络连接起来的、外部的三维地理信息提供服务器(400)提供的;或是已经储存在三维虚拟对象信息获得装置内部的存储部(未图示)。上述存储部(未图示)可以储存三维地图及虚拟对象关联信息,由摄像机拍摄的影像信息,GPS检测出的位置信息以及使用者终端设备(20)信息等。
上述三维坐标计算部(100)若使用者远程使用虚拟触摸完成选择操作的话,就以摄像机拍摄的使用者的影像为基础,利用三维坐标计算法计算出使用者身体的至少两个空间坐标(A,B)。这时,上述三维坐标计算法可以是光学三角测量法、构造光式、时间迟延测定法(Time of Flight)等(由于现在关于三维坐标计算方式的准确分类方式还没有确立,因此可能会包含相互重复的方式),能够计算出使用者身体三维坐标的任何方法或装置都能够适用。
图2展示的是图1中用来完成三维坐标计算方法中光学三角测量法的三维坐标计算部的结构图。如图2所示,用来进行光学三角测量法的三维坐标计算部(100)包含影像获得部(110)和空间坐标计算部(120)。
上述影像获得部(110)作为一种摄像机组件,其构成由配置在不同位置、由两个以上用来检测影像并将检测到得影像转换为电子图像信号的、类似CCD或是CMOS等的图像传感器(111)(112)构成,然后分别从不同的角度拍摄使用者的身体。而且,上述空间坐标计算部(120)从影像获得部(110)中接收到从不同角度拍摄到的使用者身体的影像后,以此为基础,利用光学三角测量法计算出使用者身体的三维坐标数据。
像这样,光学三角测量法可适用于拍摄影像间相对应的特定点,并能够获得三维信息。作为应用三角法计算出三维坐标的各种相关方法,经常被采用的有摄像机自标定(camara self calibration)法,Harris的角点检测法,SIFT法,RANSAC法,Tsai法等。
图3展示的是图1中用来完成三维坐标计算方法中构造光法的三维坐标计算部的结构图。图3中,三维坐标计算部(100)把已经编码的模式影像投影在使用者身上,然后以处理构造光投影场面的影像来处理,从而获得上述三维坐标数据,其构成包含:光源(131)和散光器(132);用来把散斑图投影在使用者身体上的照明组件(130);图像传感器(121)及凸镜(122);用来捕捉通过上述照明组件(130)投影在上述使用者身体上的散斑图的影像获得部(140),以及以上述影像获得部捕捉(140)到得散斑图为基础,利用构造光方式计算出使用者身体的三维坐标数据的空间坐标计算部(150)。
另外,作为本发明的另一实施例,活用时间迟延测定法(Time of Flight:TOF)的三维坐标数据计算法也可以使用。
上述提及到的各种三维坐标计算法,只要是本法明所属技术领域的从业人很容易就明白并能够具体体现,因此省略不提。
另一方面,上述触摸位置计算部(200)所起到的作用是利用由三维坐标计算部(100)计算出的上述第1空间坐标(手指)及第2空间坐标(眼),计算出连接上述第1空间坐标及第2空间坐标的直线通过上述三维地图信息与建筑物相对接触面的虚拟对象接点坐标数据。
在此,使用手指作为上述第1空间坐标(B)。即,人的身体中手指是唯一较为灵活、能够进行精密操作的部分。特别是,使用大拇指或食指中的某一个,或是两根手指一起使用时,可完成精准地指示。因此,本发明中作为第1空间坐标(B)使用大拇指及/或是食指指尖是非常有效的。另外,按照这个思路,代替所述第1空间坐标(B)作用的手指指尖部分,可以用由手指握住的底部是尖的指针(例如,笔尖)。
另外,本发明使用使用者一只眼睛的中心点作为上述第2坐标(A)。例如,若在使用者双眼前伸出食指看的话,将看到两个食指。这是由于使用者双眼看到的食指形象是不一样才会发生此类现象(由双眼的角度差引起)。但是,若只用其中一只眼去看食指的话就能够清楚地看到食指。另外即使硬撑着不闭上另一只眼,但是意识上只用一边的眼去看的话,也能看到清楚的食指。这与射击、射箭等有需要瞄准的、要求高度准确性的运动项目中,大部分一侧眼睛闭上瞄准的原理是一样的。
在本发明中,将采用仅用一侧眼(第2空间坐标)去看手指指尖(第1空间坐标),可准确掌握手指指尖形态这一原理。同样的,使用者只有准确地看见第1空间坐标才能给指出与第1空间坐标相一致的、通过三维地图信息与建筑物相对接触面的虚拟对象接点坐标数据。
另一方面,在本发明中,一名使用者在使用手指中的某一个时,第1空间坐标就是使用者某一手指的指尖,上述使用者用手握住的指示器尖端中的某一个是三维坐标,第2空间坐标是使用者某一只眼睛中心点的三维坐标。另外,一名使用者使用手指中两个以上手指时,上述第1空间坐标是上述使用者伸出的两个以上的手指指尖的三维坐标。
另外,从计算出初期虚拟对象接点坐标数据的时间算起,若超过设定时间,上述虚拟对象接点坐标数据没有变动的话,上述触摸位置计算部(200)将计算出通过三维地图信息与建筑物相对接触面的虚拟对象接点坐标数据。
另外,上述触摸位置计算部(200)将判断:从计算出初期虚拟对象接点坐标数据的时间算起,上述虚拟对象接点坐标是否会因为超过设定时间而发生变动,若超过设定时间,接触点坐标数据没有变动的话,再判断第1空间坐标和第2空间坐标之间的距离在超过设定距离时有无变化发生,若超过设定距离有变化发生时,上述触摸位置计算部将计算出通过三维地图信息与建筑物相对接触面的虚拟对象接点坐标数据。
另一方面,若判断上述虚拟对象接点坐标数据的变动是在设定领域范围之内的话,上述虚拟对象接点坐标数据的形成将按照没有变动来对待。即,使用者在用手指或是指示器尖端去指点显示器时,在身体特性上,身体或是手指上难免会有些移动或颤动,因此使用者按原样维持接触点的坐标是非常难的。因此,上述接点坐标数据的值在事先设定好的领域范围内存在时,上述虚拟对象接点坐标数据可看作为没有变动。
如何操作根据本发明的三维对象信息的获得装置将参考附加图面在下文做更为详尽的解释说明。图1至图3中相同的参照符号表示执行相同功能的相同部件。
图4展示的是用来解释说明根据本发明实施例的不需要指针的三维虚拟对象信息获得法的流程图。
参考图4说明,首先,当使用者远程使虚拟触摸来完成选择操作的话,三维坐标计算部(100)利用摄像机拍摄的影像信息分别计算出使用者身体至少两个以上的空间坐标。这时,上述三维坐标数据利用三维坐标计算法(光学三角测量法、构造光式、时间迟延测定法(TOF)等多数存在),以使用者身体的三维空间坐标为基础计算出第1空间坐标及第2空间坐标,然后计算出连接计算好的上述第1空间坐标和第2空间坐标(S10)。最为理想的是,上述第1空间坐标是上述使用者手指中某一手指的指尖,上述使用者用手握住的指针端部中某一个的三维坐标,而上述第2空间坐标就是使用者某一侧眼睛的中心点的三维坐标。
触摸位置计算部(200)根据GPS得到的当前位置信息,通过三维地图信息提供服务器(400)得到的三维地图信息、立体的建筑物或是位置,并把其储存在存储部(310)中。上述存储部(310)中所储存的位置信息及三维地图信息与上述三维坐标计算部(100)中计算出的至少2个空间坐标(A,B)结合,当延长上述空间坐标(A,B)的直线时,首先,将计算出相对的建筑物及位置接触面(C)的接点坐标数据(S20)。这时,相对的建筑物及位置的定义根据使用者任意设置,通常情况下,最好定义为第一个相对的建筑物及位置。
另一方面,作为计算出与上述建筑物及位置接触面(C)的接点坐标数据,可使用绝对坐标法,相对坐标法以及操作者选择的方法。
第1种,绝对坐标法,是逆算出三维地图(map)与透明画面配对的时点,然后取得空间坐标的绝对坐标的方法。即,这一方法通过GPS、螺旋仪传感器、指南针或是基站信息等能够取得多种路径位置的数据,可限定与摄像机画面配对的对象从而迅速地得到结果,
第2种,相对坐标法,是具有被固定在空间的绝对坐标的摄像机,帮助操作者的相对坐标转换为绝对坐标转换的方式。即,具有绝对坐标的摄像机在读取手和眼时,是属于空间型,这里的技术把成为个人型绝对坐标的一个点提供给空间型的形态。
最后一种,操作者选择法,现今的智能手机以AR服务等能够取得的信息为基础,显示所属范围中的内容,通过使用者所选择的方法,显示了包含了没有准确绝对坐标误差范围的选择菜单后进行选择,使用者自己排除误差后得到结果。
作为参考,与上述空间坐标(A,B)的接触面,在此仅限定于通过三维地图信息得到的建筑物或是位置来说明,但这仅仅只是一个理想的实施例,当被储存的三维地图信息限定于博物馆或是美术馆之类的特定领域的话,就可以定义为美术品或是收藏品等作品。如此,在本发明的技术思想范围内可理解出多种实施例。
接下来,空间位置配对部(300)计算出属于上述计算出的虚拟对象坐标数据的虚拟对象(位置)(S30),然后把计算出的与虚拟对象相关的建筑名、地区编码、商号、宣传语、服务标语、链接(能够向其他网络或是网站移动的链接)等虚拟对象相关信息检测并存储(S40)。
而且,空间位置配对部(300)把上述储存好的、与计算好的虚拟对象相关的建筑名、地区编码、商号、宣传语、服务标语、链接(能够向其他网络或是网站移动的链接)传输到使用者终端设备(20)或是虚拟对象信息获得装置的显示部(未图示)并显示出来(S50)。
上面所解释说明的本发明的技术性思想通过理想实施例被具体叙述,但需要注意的是上述实施例是为了说明而并不是为了限制。另外,具有本发明技术性领域一般性知识的人就能够理解在本发明的技术思想范围内的大量实施例。因此本发明的正常技术保护范围就必须根据附加的专利权利要求书的技术性思想来制定。
商业化利用可能
本发明作为利用不使用指针的虚拟触摸法来获得三维虚拟对象信息的装置,可以说是具有产业利用性。

Claims (10)

1.一种不需要指针的三维虚拟对象信息获得装置,其特征是包含了:
此利用三维地图信息和GPS位置信息的三维虚拟对象信息获得装置,计算出使用者身体三维坐标数据,从而计算出第1空间坐标及第2空间坐标的三维坐标计算部;通过上述三维地图信息及上述GPS的位置信息,使上述三维坐标计算部中计算出的第1空间坐标及第2空间坐标相配对,计算出连接上述第1空间坐标及第2空间坐标的直线通过上述三维地图信息与建筑物相对接触面的虚拟对象接点坐标的虚拟位置计算部;计算出属于上述触摸位置计算部中计算出的虚拟对象坐标数据的虚拟对象(位置),然后把计算出的虚拟对象的相关信息提供给使用者终端设备或是上述三维虚拟对象信息获得装置的显示部的空间位置配对部。
2.根据权利要求1中的不需要指针的三维虚拟对象信息获得装置,其特征是:
是由有、无线网络连接起来的、外部的三维地理信息提供服务器提供的。
3.根据权利要求1中的利用虚拟触摸的三维虚拟对象信息的获得装置,上述三维地图信息,其特征是:已经储存在三维虚拟对象信息获得装置内部。
4.根据权利要求1中的不需要指针的三维虚拟对象信息获得装置,上述三维坐标计算部,其特征是:利用时间迟延测定法(Time of Flight)计算出上述三维坐标数据。
5.根据权利要求1中的不需要指针的三维虚拟对象信息获得装置,上述三维坐标计算部,其特征是包含了:由两个以上、安装在不同位置的传感器构成的、用来拍摄不同角度的使用者身体的影像获得部;从上述影像获得部中接收到从不同角度拍摄到的使用者身体的影像后,以此为基础,利用光学三角测量法计算出使用者身体的三维坐标数据的空间坐标计算部。
6.根据权利要求1中的不需要指针的三维虚拟对象信息获得装置,上述三维坐标计算部,其特征是:把已经编码的模式影像投影在使用者身上,然后以处理构造光投影场面的影像来处理,从而获得上述三维坐标数据。
7.根据权利要求6中的不需要指针的三维虚拟对象信息获得装置,上述三维坐标计算部,其特征是包含了:由光源和散光器构成、用来把散斑图投影在使用者身体上的照明组件;由图像传感器和凸镜构成、用来捕捉通过上述照明组件投影在上述使用者身体上的散斑图的影像获得部;以及利用上述影像获得部捕捉到得散斑图计算出使用者身体的三维坐标数据的空间坐标计算部。
8.根据权利要求6中的不需要指针的三维虚拟对象信息获得装置,上述三维坐标计算部,其特征是:两个以上,并且安装于不同位置。
9.根据权利要求1中的不需要指针的三维虚拟对象信息获得装置,其特征是:第1空间坐标是上述使用者手指中某一手指的指尖,上述使用者用手握住的指针端部中某一个的三维坐标,而上述第2空间坐标就是使用者某一侧眼睛的中心点的三维坐标。
10.根据权利要求1中的不需要指针的三维虚拟对象信息获得装置,其特征是:第1空间坐标是上述使用者手指中两个以上的指尖的三维坐标,上述第2空间坐标是上述使用者某一侧眼睛中心点的三维坐标。
CN201380021523.8A 2012-04-23 2013-04-22 不需要指针的三维虚拟对象信息获得装置 Pending CN104620201A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2012-0042232 2012-04-23
KR1020120042232A KR101533320B1 (ko) 2012-04-23 2012-04-23 포인터가 불필요한 3차원 객체 정보 획득 장치
PCT/KR2013/003420 WO2013162235A1 (ko) 2012-04-23 2013-04-22 포인터가 불필요한 3차원 가상 객체 정보 획득 장치

Publications (1)

Publication Number Publication Date
CN104620201A true CN104620201A (zh) 2015-05-13

Family

ID=49483466

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380021523.8A Pending CN104620201A (zh) 2012-04-23 2013-04-22 不需要指针的三维虚拟对象信息获得装置

Country Status (4)

Country Link
US (1) US20150135144A1 (zh)
KR (1) KR101533320B1 (zh)
CN (1) CN104620201A (zh)
WO (1) WO2013162235A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114442888A (zh) * 2022-02-08 2022-05-06 联想(北京)有限公司 对象确定方法、装置及电子设备

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016003165A1 (ko) * 2014-07-01 2016-01-07 엘지전자 주식회사 외부 장치를 이용한 방송 데이터 처리 방법 및 장치
US9823764B2 (en) * 2014-12-03 2017-11-21 Microsoft Technology Licensing, Llc Pointer projection for natural user input
US10410320B2 (en) * 2016-09-30 2019-09-10 Sony Interactive Entertainment Inc. Course profiling and sharing
US10850838B2 (en) 2016-09-30 2020-12-01 Sony Interactive Entertainment Inc. UAV battery form factor and insertion/ejection methodologies
US10679511B2 (en) 2016-09-30 2020-06-09 Sony Interactive Entertainment Inc. Collision detection and avoidance
US11125561B2 (en) 2016-09-30 2021-09-21 Sony Interactive Entertainment Inc. Steering assist
KR101937823B1 (ko) * 2016-10-24 2019-01-14 주식회사 브이터치 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
RU2675057C1 (ru) * 2017-08-15 2018-12-14 Общество с ограниченной ответственностью "Инжиниринговая Компания "Пульсар Ойл" Способ идентификации и визуализации инженерных коммуникаций в пространстве
KR102463712B1 (ko) 2017-11-24 2022-11-08 현대자동차주식회사 가상 터치 인식 장치 및 그의 인식 오류 보정 방법
US10706300B2 (en) * 2018-01-23 2020-07-07 Toyota Research Institute, Inc. Vehicle systems and methods for determining a target based on a virtual eye position and a pointing direction
US10853674B2 (en) 2018-01-23 2020-12-01 Toyota Research Institute, Inc. Vehicle systems and methods for determining a gaze target based on a virtual eye position
US10817068B2 (en) * 2018-01-23 2020-10-27 Toyota Research Institute, Inc. Vehicle systems and methods for determining target based on selecting a virtual eye position or a pointing direction

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1694056A (zh) * 2004-05-06 2005-11-09 阿尔派株式会社 操作输入装置及操作输入方法
KR20100129629A (ko) * 2009-06-01 2010-12-09 엘지전자 주식회사 움직임 검출에 의한 전자장치 동작 제어방법 및 이를 채용하는 전자장치
CN101960409A (zh) * 2007-12-31 2011-01-26 微软国际控股私有有限公司 3d指点系统
KR20110037053A (ko) * 2009-10-05 2011-04-13 (주)휴비드씨엔에스 영상센서를 이용한 3차원 공간 터치 입력장치 및 그 방법
US20110084893A1 (en) * 2009-10-09 2011-04-14 Lg Electronics Inc. Mobile terminal and controlling method thereof
US20110096072A1 (en) * 2009-10-27 2011-04-28 Samsung Electronics Co., Ltd. Three-dimensional space interface apparatus and method

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6176782B1 (en) * 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
JP3795647B2 (ja) * 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
US6173239B1 (en) * 1998-09-30 2001-01-09 Geo Vector Corporation Apparatus and methods for presentation of information relating to objects being addressed
JP2002132806A (ja) * 2000-10-18 2002-05-10 Fujitsu Ltd サーバシステム及び情報提供サービスシステム並びに情報提供サービス方法
US6600475B2 (en) * 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
US7031875B2 (en) * 2001-01-24 2006-04-18 Geo Vector Corporation Pointing systems for addressing objects
US8300042B2 (en) * 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
US7348963B2 (en) * 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7233316B2 (en) * 2003-05-01 2007-06-19 Thomson Licensing Multimedia user interface
US7893920B2 (en) * 2004-05-06 2011-02-22 Alpine Electronics, Inc. Operation input device and method of operation input
US7885145B2 (en) * 2007-10-26 2011-02-08 Samsung Electronics Co. Ltd. System and method for selection of an object of interest during physical browsing by finger pointing and snapping
JP5799521B2 (ja) * 2011-02-15 2015-10-28 ソニー株式会社 情報処理装置、オーサリング方法及びプログラム
US9525964B2 (en) * 2012-02-02 2016-12-20 Nokia Technologies Oy Methods, apparatuses, and computer-readable storage media for providing interactive navigational assistance using movable guidance markers
WO2014106219A1 (en) * 2012-12-31 2014-07-03 Burachas Giedrius Tomas User centric interface for interaction with visual display that recognizes user intentions

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1694056A (zh) * 2004-05-06 2005-11-09 阿尔派株式会社 操作输入装置及操作输入方法
CN101960409A (zh) * 2007-12-31 2011-01-26 微软国际控股私有有限公司 3d指点系统
KR20100129629A (ko) * 2009-06-01 2010-12-09 엘지전자 주식회사 움직임 검출에 의한 전자장치 동작 제어방법 및 이를 채용하는 전자장치
KR20110037053A (ko) * 2009-10-05 2011-04-13 (주)휴비드씨엔에스 영상센서를 이용한 3차원 공간 터치 입력장치 및 그 방법
US20110084893A1 (en) * 2009-10-09 2011-04-14 Lg Electronics Inc. Mobile terminal and controlling method thereof
US20110096072A1 (en) * 2009-10-27 2011-04-28 Samsung Electronics Co., Ltd. Three-dimensional space interface apparatus and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114442888A (zh) * 2022-02-08 2022-05-06 联想(北京)有限公司 对象确定方法、装置及电子设备

Also Published As

Publication number Publication date
KR20130119233A (ko) 2013-10-31
US20150135144A1 (en) 2015-05-14
KR101533320B1 (ko) 2015-07-03
WO2013162235A1 (ko) 2013-10-31

Similar Documents

Publication Publication Date Title
CN104620201A (zh) 不需要指针的三维虚拟对象信息获得装置
US11887312B2 (en) Fiducial marker patterns, their automatic detection in images, and applications thereof
Jo et al. ARIoT: scalable augmented reality framework for interacting with Internet of Things appliances everywhere
Arth et al. The history of mobile augmented reality
US9256986B2 (en) Automated guidance when taking a photograph, using virtual objects overlaid on an image
CN104081317B (zh) 信息处理设备和信息处理方法
CN103297544B (zh) 一种基于增强现实的即时通讯应用方法
US20140267031A1 (en) Spatially aware pointer for mobile appliances
CN104246664B (zh) 不显示指针的透明显示器虚拟触摸装置
US9268410B2 (en) Image processing device, image processing method, and program
EP2353111A1 (en) Virtual tagging method and system
CN105701790A (zh) 用于确定摄像机相对于真实环境的至少一个对象的姿态的方法和系统
CN110531847B (zh) 一种基于增强现实的社交方法及系统
JP2012048568A (ja) 情報処理装置及び方法
CN105183142B (zh) 一种利用空间位置装订的数字信息复现方法
TW201126451A (en) Augmented-reality system having initial orientation in space and time and method
CN105786166A (zh) 扩增实境方法与系统
CN115115812A (zh) 虚拟场景的显示方法、装置及存储介质
CN112055034B (zh) 基于光通信装置的交互方法和系统
US10614308B2 (en) Augmentations based on positioning accuracy or confidence
Boyali et al. Real time six degree of freedom pose estimation using infrared light sources and wiimote IR camera with 3D TV demonstration
Duan et al. Depth camera in human-computer interaction: An overview
TWM559036U (zh) 無標式適地性擴增實境系統
Duan et al. Augmented reality technology and its game application research
KR20150022065A (ko) 미러월드 기반 인터랙티브 온라인 쇼핑몰 구축을 위한 파노라마 영상 획득 및 객체 검출이 가능한 시스템

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20150513