CN102138333B - 利用启发式视图合并的视图合成 - Google Patents

利用启发式视图合并的视图合成 Download PDF

Info

Publication number
CN102138333B
CN102138333B CN200980134021.XA CN200980134021A CN102138333B CN 102138333 B CN102138333 B CN 102138333B CN 200980134021 A CN200980134021 A CN 200980134021A CN 102138333 B CN102138333 B CN 102138333B
Authority
CN
China
Prior art keywords
pixel
view
candidate
candidate pixel
distortion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN200980134021.XA
Other languages
English (en)
Other versions
CN102138333A (zh
Inventor
倪泽峰
田栋
西塔拉姆·布哈加瓦泰
琼·拉奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of CN102138333A publication Critical patent/CN102138333A/zh
Application granted granted Critical
Publication of CN102138333B publication Critical patent/CN102138333B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Abstract

几个实施方式涉及用于3D视频(3DV)应用的具有启发式视图合并的视图合成。根据一个方面,从至少一个参考视图位置到虚拟视图位置变形至少一个参考图像或其一部分,以产生至少一个变形的参考。识别所述至少一个变形的参考中的第一候选像素和第二候选像素。该第一候选像素和第二候选像素是来自所述虚拟视图位置的虚拟图像中目标像素位置的候选像素。基于所述第一和第二候选像素的值来确定所述目标像素位置处的像素值。

Description

利用启发式视图合并的视图合成
相关申请的交叉参考
本申请要求(1)2008年9月19日提交的美国临时申请61/192,612号标题为“用于3DV应用的带有边界泼溅与启发式视图合并的视图合成”以及(2)2008年8月29日提交的美国临时申请61/092,967号标题为“用于3D视频(3DV)应用的带有适应性泼溅的视图合成”的权益。这两篇美国临时申请的内容全部并入作为参考。
技术领域
所描述的实施方式涉及编码系统。各种特别的实施方式涉及用于3D视频(3DV)应用的具有启发式视图合并的视图合成。
背景技术
三维视频(3DV)是一种包括多视图视频的编码表示和深度信息并且目的在于例如在接收器处生成高质量的3D渲染的新的架构。这使得自动立体显示、自由视点应用和立体显示的3D视觉体验成为可能。需要更进一步的技术来生成额外的视图。
发明内容
根据一个总体的方面,从至少一个参考视图位置到虚拟视图位置变形至少一个参考图像或其一部分,以产生至少一个变形的参考。识别所述至少一个变形的参考中的第一候选像素和第二候选像素。该第一候选像素和第二候选像素是来自所述虚拟视图位置的虚拟图像中目标像素位置的候选像素。基于所述第一和第二候选像素的值来确定所述目标像素位置处的像素值。。
在下面的附图和说明书部分详细解释一个或多个实施方式的细节。即使是以一种特殊方式来描述实施方式,应当清楚的是,可以以各种方式配置或者体现实施方式。例如,一种实施方式可以用方法的方式来执行,或者体现为诸如例如是被配置来执行一组操作的设备或者是存储用于执行一组操作的指令的设备之类的设备,或者体现为信号。从接下来的详细描述结合附图和权利要求会容易理解其它方面和特征。
附图说明
图1A是未矫正的视图的合成的实施方式的图示。
图1B是矫正的视图的合成的实施方式的图示。
图2是视图合成器实施方式的图示。
图3是视频发送系统实施方式的图示。
图4是视频接收系统实施方式的图示。
图5是视频处理装置实施方式的图示。
图6是用于发送和接收具有深度信息的多视图视频的系统的实施方式的图示。
图7是视图合成过程的实施方式的图示。
图8是用于矫正的视图的视图合并过程的实施方式的图示。
图9是由3D点Ori-Pi-Os确定的角度的图示。
图10A是用于矫正的视图的上采样的实施方式的图示。
图10B是基于上采样和Z缓冲合并过程的实施方式的图示。
具体实施例
一些三维视频(3DV)应用对输入视图有严格的限制。输入视图通常必须得到很好的矫正,使得一维(1D)视差(disparity)可以描述如何将像素从一个视图置换到另一个视图。
基于深度图像的渲染(DIBR)是一种使用从多个校准后的摄像机捕捉的多个图像以及相关联的逐像素深度信息的视图合成技术。从概念上讲,这种视图生成方法可以理解为是一个两步骤的过程:(1)3D图像变形;和(2)重建和再取样。关于3D图像变形,使用深度数据和相关联的摄像机参数将来自于参考图像的像素反投影到适当的3D位置,并重新将它们投影到新的图像空间。关于重建和再取样,同样涉及确定合成视图中的像素值。
所述渲染方法可以是基于像素的泼溅或者是基于网格的(三角形的)。对于3DV,逐像素深度典型的是用诸如立体之类的被动式计算机视觉技术来估计,而不是从激光测距扫描或者计算机图形模型生成的。因此,对于3DV中的实时处理,在只给定有噪声的深度信息时,基于像素的方法应当是优选的,以避免复杂性和生成耗费计算的网格,因为鲁棒的3D三角剖分(triangulation)(表面重建)是困难的几何问题。
现有的泼溅算法达到了一些令人印象非常深刻的结果。但是,它们被设计来与高精度的深度一起使用,对低质量深度而言,它们可能不是充分的。另外,很多现有的算法将诸如逐像素垂直面或者三维点云之类3DV中不存在的技术方面视为理所当然。这样,需要新的合成方法来处理这些具体问题。
给定深度信息和摄像机参数,就容易将参考像素变形到合成的视图上。最突出的问题是,如何从变形的参考视图像素估计目标视图中的像素值。图1A和图1B图示的是这个基本问题。图1A显示的是未矫正的视图合成100。图1B显示的是矫正后的视图合成150。在图1A和图1B中,字母“X”代表目标视图中要估计的像素,圆和方块表示从不同的参考视图变形的像素,其中,不同的形状表示不同的参考视图。
一种简单的方法是,将变形的样本像素舍入到目的视图中其最接近的像素位置。当多个像素映射到合成视图中的同一个位置时,Z-缓冲是一种典型的解决方案,即,选择最靠近摄像机的那个像素。这种方案(舍入最近的像素位置)经常会在略为欠采样的表面中,尤其是沿着物体的边界处导致针孔。处理这个针孔问题最常见的方法是将参考视图内的一个像素映射为目标视图内的几个像素。这个过程称作泼溅。
如果将一个参考像素映射到目标视图中的多个周边目标像素上,可以消除大部分的针孔。但是,会丢失某些图像细节。当使用透明的泼溅类型的重建核心时,同样要在消除针孔和丢失细节之间进行权衡。问题是:“我们如何来控制泼溅的程度?”例如,对于每个变形的像素,我们是该将它映射到它所有的周边目标像素上,还是仅将它映射到最靠近它的一个像素上?文献很大程度上并未处理这个问题。
当应用多个参考视图时,一种常见的方法会单独处理来自于每个参考视图的合成,然后将多个合成视图合并在一起。问题是如何来合并它们,例如,可以使用某类加权方案。例如,可以基于角距离、图像分辨率等等之类,给不同的参考视图应用不同的权重。注意,应当以对有噪声的深度信息鲁棒的方式来处理这些问题。
使用DIBR,可以从捕捉到的视图(在上下文中也称作参考视图)产生虚拟视图。产生虚拟视图是一项艰难的任务,尤其是当输入的深度信息有噪声并且其它诸如场景的3D表面属性之类的场景信息未知的时候。
其中一个最困难的问题经常是,在对参考视图内的样本像素变形后,如何估计合成视图内每个像素的值。例如,对于每个目标合成像素,应当利用什么样的参考像素,以及如何组合它们。
在至少一种实施方式中,我们提议用一种用于3DV应用的具有启发式视图合并的视图合成框架。发明人已经注意到,在涉及产生虚拟视图的3DV应用中(例如,使用DIBR),这样产生虚拟视图是一项挑战性的任务,尤其是当输入的深度信息具有噪声并且诸如场景的3D表面属性之类的其它场景信息未知的时候。发明人进一步注意到,在产生这种虚拟视图时突出的问题是在对参考视图中的样本像素进行变形后如何估计合成视图中每个像素的值。例如,对于每个目标合成的像素,应该应用什么参考像素,以及如何组合这些参考像素?
所以,在至少一种实施方式中,提供了基于例如其深度信息、其变形的2D图像位置和摄像机参数来合并多个变形的参考像素的启发式方法。当然,本发明的方法不仅限于以上方法,其他选项(信息、位置、参数等)也可以用于合并多个变形的参考像素,而保持本发明原理的精神。所建议的方案不限制多少参考视图被作为输入,并且无论摄像机视图是否被矫正都可被应用。
在至少一种实施方式中,允许将单视图的合成和合并组合为单个合并方案。
另外,发明人注意到,要从参考视图合成虚拟视图,通常需要三个步骤,即:(1)前向变形;(2)混合(单个视图的合成和多个视图的合并);和(3)填充空洞。
至于上文提到的与从参考视图合成虚拟视图有关的三个步骤的变形步骤,关于如何处理所述变形结果,基本上存在两种可以考虑的选项,即,合并和混合。
关于合并,可以考虑完全变形每个视图,以给每个参考视图形成最终的变形视图。然后,可以将这些最终的变形视图“合并”,得到单个的真正最终的合成视图。“合并”会涉及,例如在N个候选像素(假设有N个最终的变形视图)之间进行挑选或者以某种方式将它们组合。当然,可以理解,用于确定目标像素值的候选像素数目不需要和变形视图的数目相同。也就是说,多个候选像素(或者一个也没有)可以来自于单个视图。
关于混合,可以仍然变形每个视图,但是不为每个参考视图形成最终变形的视图。通过不进行到最终过程,当混合时,可以保留更多的可选项。这是有优点的,因为在某些情况下不同的视图可以为合成的目标视图的不同部分提供最佳信息。因而,混合可提供灵活性以在每个像素处从不同的视图选择信息的正确组合。因此,可以认为,合并是两步骤混合的特例,其中,首先分别处理来自于每个视图的候选,然后对处理结果进行组合。
再次参考图1A,可以用图1A来显示到典型的混合操作的输入,因为图1A包括从不同的参考视图变形的像素(分别是圆形和方块)。相反,对于典型的合并应用,人们会期望只看见圆形或者方块,因为会典型地分开变形每个参考视图然后进行处理,为各个参考视图形成最终的变形视图。然后在典型的合并应用中组合多个参考视图的最终的变形视图。
返回到混合,作为一种涉及混合的可能的可选项/考虑,可能不执行泼溅,因为还不想填满所有的空洞。这些及其它可选项可以由本领域和相关领域的普通技术人员所确定,而保持本发明原理的精神。
因此,可以理解,本发明原理的一个或多个实施例针对的是合并,而本发明原理的其它实施例可能针对的是混合。当然,进一步的实施例可以涉及合并和混合的组合。本申请中所讨论的特征和构思通常应用在合并和混合两种情况下,即使在上下文中只讨论合并或者混合中的一种。给定此处所提供的本发明原理的教导,本领域及相关技术领域的普通技术人员会容易理解与合并和/或混合相关的、保持本发明原理的精神的各种应用。
应当理解的是,本发明通常涉及通信系统,更特别的是涉及无线系统,例如地面广播、手机、无线-保真(Wi-Fi)、卫星等等。应当进一步理解的是,本发明原理可以实现在例如编码器、解码器、预处理器、后处理器和接收器(它可以包括前述的一种或多种)中。例如,在需要产生虚拟图像来进行编码时,本发明原理可以用在编码器中。关于编码器的进一步例子,这样一种编码器可以用于合成虚拟视图,用于从虚拟视图位置编码实际的图像,或者从靠近虚拟视图位置的视图位置编码图像。在涉及两个参考图像的实施方式中,可以对两个参考图像以及对应于虚拟视图的虚拟图像都进行编码。当然,给定此处所提供的本发明原理的教导,在保持本发明原理的精神的同时,本领域及相关领域的普通技术人员会考虑这些和各种其它应用,以及可应用本发明原理的对前面描述的应用的各种变形。
另外,要理解的是,虽然此处是根据H.264/M PEG-4 AVC(AVC)标准来描述一个或多个实施例的,但本发明原理不完全局限于同样的实施例,因此,给定此处所提供的本发明原理的教导,在保持本发明原理的精神的同时,可以容易地将本发明原理应用到多视图视频编码(MVC)、当前和将来的3DV标准、以及其它视频编码标准、规范和/或建议,而保持本发明原理的精神。
注意,“泼溅”指的是,将来自参考视图的一个变形的像素映射到目标视图中的几个像素的过程。
注意,“深度信息”是指与深度有关的各类信息的通用术语。一种类型的深度信息是“深度地图”,它通常指的是逐像素深度图像。其它类型的深度信息包括,例如,为每个编码块而不是为每个编码的像素使用单个的深度值。
图2显示的是根据本发明原理的实施例的可以应用本发明原理的示例的视图合成器200。视图合成器200包括前向变形器210-1至210-K、视图合并器220和空洞填充器230。前向变形器210-1至210-K的各个输出与视图合并器220的第一输入以信号通信的方式进行连接。视图合并器220的输出与空洞填充器230的第一输入以信号通信的方式进行连接。前向变形器210-1至210-k的第一各个输入可以用于作为视图合成器200的输入,用于接收1至K的各个参考视图。前向变形器210-1至210-K的第二各个输入可用于作为视图合成器200的输入,用于分别接收视图1和与它对应的目标视图深度地图和摄像机参数直至视图K和与它对应的目标视图深度地图和摄像机参数。视图合并器220的第二输入可用于作为所述视图合成器的输入,用于接收所有视图的深度地图和摄像机参数。空洞填充器230的第二(可选的)输入可用于作为视图合成器200的输入,用于接收所有视图的深度地图和摄像机参数。空洞填充器230的输出可用于作为视图合成器200和输出,用于输出目标视图。
视图合并器220可以执行各种功能和操作中的一种或多种。例如,在一个实施例中,视图合并器220识别在至少一个变形的参考中的第一候选像素和第二候选像素,该第一候选像素和第二候选像素是来自虚拟视图位置的虚拟图像中目标像素位置的候选像素。此外,在实施例中,视图合并器220还基于第一和第二候选像素的值来确定目标像素位置处的像素的值。
图2中的元件,例如前向变形器210和视图合并器220可以以各种方式实施。例如,可以在通用计算机上或者诸如视频编码器之类的专用机器上,或者在特殊用途的集成电路(诸如专用的集成电路(ASIC))上执行前向变形或视图合并功能的软件算法。这些实施也可以应用软件、硬件和固件的组合。前向变形和视图合并的通用功能对于本领域普通技术人员而言是周知的。这些通用功能可以按本申请中所描述的方式进行修改,以执行例如本申请所描述的前向变形和视图合并操作。
图3显示可以根据本发明原理的实施方式的应用本发明原理的示例的视频发送系统300。视频发送系统300可以是,例如用于使用诸如卫星、缆线、电话线或者地面广播之类的多种介质中的任何一种介质来发送信号的头端或者发送系统。可以通过因特网或者其它网络进行所述发送。
视频发送系统300能够生成并输送使用视图间跳跃模式编码的视频内容。这是通过生成包括深度信息或者包括能够用于在接收端合成所述深度信息的信息的编码的信号来实现的,所述接收端例如可以具有解码器。
视频发送系统300包括编码器310和能够发送编码的信号的发送器320。编码器310接收视频信息,并使用视图间跳跃模式从所接收的视频信息生成具有深度的编码的信号。编码器310可以是,例如AVC编码器。编码器310可以包括子模块,具有例如用于接收各种信息片并将它们组合为用于存储或者发送的结构化形式的组合单元。各种信息片可以包括,例如编码的或者解码的视频、编码的或者解码的深度信息以及诸如运动矢量、编码模式指示符和语法元素之类的编码或者解码的元素。
发送器320可以是,例如适用于发送具有代表编码图像的一个或多个比特流以及/或者与其相关的信息的程序信号。典型的发送器执行诸如提供纠错编码、在信号中插入数据、随机化信号中的能量以及将信号调制到一个或多个载波上中的一种或多种的功能。所述发送器可以包括天线(未示)或者与天线通过接口连接。相应地,发送器320的实施方式可以包括或者被限制为调制器。
图4显示的是根据本发明原理的实施例的可以应用本发明原理的示例视频接收系统400。可以将视频接收系统400配置为,接收例如通过卫星、缆线、电话线或者地面广播之类的各种介质传输的信号。所述信号可以从因特网或者其它网络接收。
视频接收系统400可以是,例如手机、计算机、机顶盒、电视机或者其它接收编码的视频并提供例如用于显示给用户或者用于存储的解码的视频的装置。因此,视频接收系统400可以将它的输出提供给,例如电视屏幕、计算机显示器、计算机(用于存储、处理或者显示)或者其它存储器、处理或者显示装置。
视频接收系统400能够接收和处理包括视频信息的视频内容。视频接收系统400包括能够接收诸如本申请的实施方式中所描述的信号之类的编码的信号的接收器410,以及能够解码所接收的信号的解码器420。
接收器410可以是,例如适用于接收具有代表编码的图像的多个比特流的程序信号。典型的接收器执行诸如,接收调制的和编码的数据信号、从一个或者多个载波解调出所述数据信号、去随机化(de-randomize)所述信号中的能量、去插值(de-interleave)信号中的数据以及对信号进行纠错解码中的一种或多种功能。接收器410可以包括天线(未示)或者与天线通过接口相接。接收器410的实施方式可以包括解调器或者被限制为解调器。
解码器420输出包括视频信息和深度信息的视频信号。解码器420可以是例如AVC解码器。
图5显示的是根据本发明原理的实施例的可以应用本发明原理的示例的视频处理装置500。视频处理装置500可以是,例如机顶盒或者是其它接收编码的视频并提供例如用于显示给用户或者用于存储的解码的视频的装置。因此,视频处理装置500可以将它的输出提供给电视机、计算机显示器或者计算机或者其它处理装置。
视频处理装置500包括前端(FE)装置505和解码器510。前端装置505可以是例如一个接收器,适用于接收具有代表编码的图像的多个比特流的程序信号,以及从所述多个比特流中选择一个或多个比特流进行解码。典型的接收器执行例如接收调制的和编码的数据信号、解调所述数据信号、解码所述数据信号的一种或多种编码(例如,信道编码和/或源编码)以及/或者对所述数据信号进行纠错其中的一种或多种的功能。前端装置505可以从例如天线(未示)接收程序信号。前端装置505将所接收的数据信号提供给解码器510。
解码器510接收数据信号520。数据信号520可以包括,例如一个或多个与先进视频编码(AVC)、可伸缩的视频编码(SVC)或者多视图视频编码(MVC)兼容的流。
AVC更具体的是指,现有的国际标准化组织/国际电工委员会(ISO/IEC)运动图像专家组-4(MPEG-4)部分10先进视频编码(AVC)标准/国际电信联盟电信部分(ITU-T)H.264建议书(之后,“H.264/MPEG-4 AVC标准”或者其变形,诸如“AVC标准”或者简单地是“AVC”)。
MVC更具体的是指AVC标准的多视图视频编码(“MVC”)扩展(附录H),指的是H.264/MPEG-4 AVC、MVC扩展(“MVC扩展”或者简单地是“MVC”)。
SVC更具体的指的是指AVC标准的可伸缩视频编码(“SVC”)扩展(附录G),称作H.264/MPEG-4AVC、SVC扩展(“SVC扩展”或者简单地是“SVC”)。
解码器510解码所接收到的信号520的全部或者一部分,并提供解码的视频信号530作为输出。解码的视频530被提供给选择器550。装置500还包括接收用户输570的用户界面560。用户界面560基于用户输570提供图像选择信号580给选择器550。图像选择信号580和用户输570表明用户希望显示多个图像、序列、可伸缩版本、视图或者可用的解码的数据的其它选项中的哪一个。选择器550提供所选择的图像作为输出590。选择器550使用图像选择信息580选择要提供解码的视频530中的哪个图片以作为输出590。
在各种实施方式中,选择器550包括用户界面560,在其它实施方式中不需要用户界面560,因为选择器550直接接收用户输入570,不单独执行界面功能。选择器550例如可以实施为软件或者集成电路。在一种实施方式中,选择器550与解码器510合并在一起,在另一种实施方式中,解码器510、选择器550和用户界面560全部集成在一起。
在一个应用中,前端505接收广播的各种各样的电视节目并选择一个来处理。基于用户输入的期望观看的频道来选择一个节目。虽然图5没有显示用户给前端装置505的输入,但是前端装置505接收用户输入570。前端505接收所述广播,并通过解调所述广播波谱的相关部分以及解码所解调的节目的任何外部编码来处理所期望的节目。前端505提供解码的节目给解码器510。解码器510是包括装置560和550的集成单元。因此,解码器510接收用户输入,该用户输入是用产提供的表示所期望观看的节目中视图的指示。解码器510解码所选择的视图,以及来自于其它视图的任何所需要的参考图像,并提供用于在电视上(未示)显示的解码的视图590。
继续上述的应用,用户可能会期望切换所显示的视图,并可能会提供新的输入给解码器510。在接收到来自于用户的“改变视图”之后,解码器510解码旧的视图和新的视图二者,以及在旧的视图和新的视图之间的所有视图。也就是说,解码器510解码物理位置上位于照取新的视图的摄像机和照取旧的视图的摄像机之间的摄像机所照取的所有视图。前端装置505还接收用于识别旧的视图、新的视图以及它们之间的视图的信息。这样的信息例如可以由具有与所述视图的位置有关的信息的控制器(图5中未示)或者解码器510来提供。其它实施方式可以使用一个前端装置,该前端装置具有与它集成在一起的控制器。
解码器510提供所有这些解码的视图作为输出590。后期处理器(图5中未示)在视图之间进行插值,以提供从所述旧的视图到所述新的视图的顺利过渡,并将这个过渡显示给用户。在过渡到新的视图之后,所述后期处理器(通过一个或多个未示的通信链路)告知解码器510和前端装置505只需要新的视图。之后,解码器510仅提供所述新的视图作为输出590。
系统500可以用于接收一系列图像的多个视图,以及用于呈现供显示的单个视图,并在各种视图之间以顺畅的方式进行切换。所述顺畅的方式可以包括在视图之间进行插值,以移到另一个视图。另外,系统500可以允许用户转动物体或者场景,或者相反,允许用户看物体或者场景的三维呈现。转动所述物体,例如可以对应于从视图移到视图,在视图之间进行插值,以获得在视图之间的顺畅的过渡,或者简单地获得三维呈现。也就是说,用户可以“选择”一个插入的视图作为要显示的“视图”。
图2的元件可以被包含在图3-5中的各种位置。例如,图2的一个或多个元件可以位于编码器310和解码器420中。作为进一步的例子,视频处理装置500的实施方式可以将图2的一个或多个元件包括在图5的讨论中所提到的解码器510或者后期处理器中,从而在接收到的视图之间进行插值。
返回到本发明原理和这些原理所应用的环境的描述,要理解的是,有利的是,本发明原理可以应用在3D视频(3DV)。3D视频是新的架构,其包括多视图视频的编码表示和深度信息,目的是在接收器处生成高质量的3D渲染。这样使得自动多视觉显示的3D视觉体验成为可能。
图6显示的是根据本发明原理的实施例的可以应用本发明原理的用于发送和接收具有深度信息的多视图视频的示例系统600。在图6中,视频数据由实线表示,深度数据由短划线表示,元(meta)数据由虚线表示。系统600可以是,例如但是不局限于自由视点电视系统。在发送器侧610,系统600包括三维(3D)内容制作器620,它具有多个输入,用于分别从多个源接收视频、深度和元数据中的一种或多种。这样的源可以包括,但是不局限于立体摄像机611、深度摄像机612、多摄像机设置613和2-维/3-维(2D/3D)过渡过程614。可以使用一个或多个网络630发送与多视图视频编码(MVC)和数字视频广播(DVB)相关的视频、深度和的元数据中的一种或多种。
在接收器侧640,基于深度图像的渲染器650执行基于深度图像的渲染,以将信号投射到各种类型的显示器上。这种应用场景会造成特定的限制,诸如窄角捕像(<20度)。基于深度图像的渲染器650能够接收显示器配置信息和用户喜好。基于深度图像的渲染器650的输出可以提供给2D显示器661、M视图3D显示器662和/或头部跟踪立体显示器663中的一个或者多个。
图7显示的是根据本发明原理的实施例的视图合成的方法700。在步骤705中,从第一参考视图位置到虚拟视图位置变形第一参考图像或其一部分,以产生第一变形的参考。
在步骤710中,识别第一变形的参考中的第一候选像素。第一候选像素是来自虚拟视图位置的虚拟图像中目标像素位置的候选像素。可以理解步骤710可以包括例如基于第一候选像素和目标像素位置之间的距离来识别第一候选像素,其中该距离可包括门限(例如距离低于临界值)。此外,可以理解步骤710可以包括例如基于与第一候选像素相关联的深度来识别第一候选像素。另外,可以理解步骤710可以包括例如基于选自第一变形的参考的多个像素的像素(作为第一候选像素)的距离来识别第一候选像素,该距离是距目标像素位置的门限距离,该距离是与摄相机最近的距离。
在步骤715中,从第二参考视图位置到虚拟视图位置变形第二参考图像或其一部分,以产生第二变形的参考。在步骤720中,识别第二变形的参考中的第二候选像素,该第二候选像素是来自虚拟视图位置的虚拟图像中目标像素位置的候选像素。
在步骤725中,基于第一和第二候选像素值来确定目标像素位置处的像素值。可以理解步骤725可以包括插值,包括例如线性插值,第一和第二像素值。此外,可以理解步骤725可以包括例如对每个候选像素使用加权因子。这种加权因子例如可以基于摄像机参数来确定,摄像机参数可包括例如第一参考视图位置和虚拟视图位置之间的第一距离,以及第二参考视图位置和虚拟视图位置之间的第二距离。此外,这种加权因子例如可以基于由3D点Ori-Pi-Os所确定的角度来确定(如以下对于实施例2的详细描述)。此外,可以理解步骤725还可以基于,根据在第一候选像素的门限深度内的所选像素的深度,选自第一变形的参考的多个像素的另一候选像素的值。
在步骤730中,编码一个或多个第一参考图像、第二参考图像和虚拟图像。
可以理解虽然图7的实施例包括第一参考图像和第二参考图像,给定此处所提供的本发明原理的教导,本领域及相关技术领域的普通技术人员会容易理解本发明原理可应用于包括单个参考图像或多于两个参考图像的实施例,同时保持本发明原理的精神。作为可能变化的另一实施例,在单个参考图像的情况下,单个参考视图位置可用于产生第一和第二候选像素,在变形过程中利用一些变化而获得了第一和第二候选像素的不同的值,尽管应用了相同的单个参考视图位置。在包括单个参考图像的其他实施例中,可应用两个或多个(不同的)参考视图位置。给定此处所提供的本发明原理的教导,本领域及相关技术领域的普通技术人员会容易理解本发明原理的这些和其他变化,同时保持本发明原理的精神。
如上所述,在至少一个实施例中提供了基于例如深度信息、变形的2D图像位置和摄像机参数来混合多个变形的参考像素/视图的启发式方法。
在3DV应用中,由于传输带宽或存储限制,降低了数量的视图和深度地图被发送或存储。由于期望在实际视图之间渲染虚拟视图,基于渲染的深度图像技术(DIBR)可用于产生中间的视图。
要从参考视图合成虚拟视图,通常需要三个步骤,即:(1)前向变形;(2)混合(组合);和(3)填充空洞。在实施一个实施例中,提供了启发式方案来解决由于有噪声的深度信息所产生的问题。仿真结果显示与现有的3DV中的方案相比获得了较高的质量。
1.背景信息-前向变形
执行视图合成的第一步骤是前向变形,其涉及为所述参考视图中的每个像素找到它在目标视图内的对应位置。3D图像变形是计算机图像领域内周知的。根据输入视图是否经过矫正,可以使用不同的方程式。
(a)未矫正的视图
如果我们根据3D点的齐次坐标P=[x,y,z,1]T来定义它,并且它在参考图像平面中的透视投影(即,2D图像位置)是pr=[ur,vr,1]T,然后我们得到:
wr·pr=PPMr·P,                                (1)
其中,wr是深度因子,PPMr是3×4透视投影矩阵,由摄像机参数可知。对应地,我们得到如下的合成的(目标)视图的方程式:
ws·ps=PPMs·P.                                 (2)
我们将PPMr的12个元素记为qij,i=1,2,3,且j=1,2,3,4。从图像点pr及其深度z,可以用如下的线性方程式来估计3D点P的其余两个分量:
a 11 a 12 a 21 a 22 x y = b 1 b 2 , - - - ( 3 )
其中,
b1=(q14-q34)+(q13-q33)z,a11=urq31-q11,a12=urq32-q12.
b2=(q24-q34)+(q23-q33)z,a21=vrq31-q21,a22=vrq32-q22.
注意,将所述参考视图中的每个像素的输入深度水平量化为3DV中的8比特(即,256个水平,其中较大的值意味着更靠近摄像机)。用下面的公式将变形过程中所用的深度因子z直接链接到它的输入深度水平Y:
z = 1 Y 255 ( 1 Z near - 1 Z far ) + 1 Z far , - - - ( 4 )
其中,Znear和Zfar分别对应于场景中最近的像素和最远的像素的深度因子。当使用多于(或少于)8比特来量化深度信息时,方程式(4)内的值255应当由2B-1来代替,其中B是比特深度。
当P的3D位置已知,通过方程式(2)将P重新投射到合成的图像平面上时,我们得到它在目标视图中的位置ps(即,变形的像素位置)。
(b)矫正的视图
对于矫正的视图,1-D视差(典型的是沿着一条水平线)描述如何将像素从一个视图替换到另一个视图。假设给定下面的摄像机参数:
(i)f,摄像机透镜的焦距
(ii)l,基线间距,也称作摄像机距离;和
(iii)du,主点偏移的差异
就输入视图得到了很好的矫正而言,可以使用下面的公式从参考视图内的像素pr=[ur,vr,1]T计算目标视图内的变形的位置ps=[us,vs,1]T
u s = u r - f · l z + du ; v s = v r . - - - ( 5 )
2.提议的方法:视图混合
在图1A和图1B中图示了视图变形的结果。在该步骤中处理如何从像素周围的变形的参考像素(候选像素)来估计目标视图中的像素(目标像素)值。在至少一个实施例中,鉴于以上,提供了一种基于深度信息、变形的像素位置和摄像机参数来合并几个变形的参考像素的启发式方法。
实施例1:矫正的视图
为了简单起见,将矫正的视图合成作为例子,即在相同的水平线上(图1B)从候选像素来估计目标像素值。
对于每个目标像素,将距离该目标像素±a像素内的变形的像素选择作为候选像素。找到具有最大深度级maxY(最靠近虚拟摄像机)的像素。此处参数a非常重要。如果太小,将会出现针孔。如果太大,将会丢失图像细节。如果关于场景或输入深度精度的一些现有知识是已知的,例如使用深度噪声的差异,则可以调整该参数。如果没有已知的知识,则大多数时间应用值1。
在典型的Z缓冲算法中,最大深度级别(即,最靠近摄像机)的候选像素将确定目标位置处的像素值。这里,也可以保留其他候选像素,只要他们的深度级别与最大深度相当接近,即(Y≥maxY-thresY)。其中thresY是临界参数。在实验中,thersY设置为10,其可以根据maxY的大小或关于输入深度的精度的一些现有的知识来进行改变。我们用m表示所找到的候选像素的数量。
为了进一步保持图像细节,如果在距离目标像素±a/2像素内有“足够”数量的候选像素,则只有这些像素被用于估计目标像素颜色。我们定义这些候选像素的数量为n。为了确定n是否足够,可以应用不同的标准,如:
(i)如果n≥N,即如果n大于预定的临界值N(当thresY设置为10并且有两个参考视图时,我们推荐将其设置为4)。在图8中显示了该推荐标准。
(ii)如果m-n<M,即如果m不远大于n,其中M是预设的临界值。
当然,本发明原理不只限于以上的差值标准,并且因此也可以使用其他差值标准,同时保持本发明原理的精神。
在选择了np个候选像素之后,下一个任务是插值目标像素Cs。定义候选像素i的值为Ci,其是从参考视图ri变形得到的,并且到目标像素的相应的距离为di。则以下的线性插值非常适用:
C s = ( Σ i = 1 n p w i · C i ) / Σ i = 1 n p w i , with w i = ( a - d i ) · W ( r i , i ) - - - ( 6 )
其中W(ri,i)是分配给不同视图的加权因子。可以将其简单地设置为1。对于矫正的视图,建议根据基线间隔lr(视图ri与目标视图之间的摄像机距离)进行设置,例如W(ri,i)=1/lr
图8显示的是根据本发明原理的实施例的用于矫正的视图的启发式视图合并过程800。在步骤805中,只选择距离目标像素±a像素内的候选像素,并且选择具有最大深度级maxY的候选像素(即,距摄像机最近)。在步骤810,去除深度级为Y<maxY-thresY的候选像素(即,去除背景像素)。在步骤815,计算候选像素的总数m,以及与目标像素的距离在±a/2内的候选像素的数量n。在步骤820,确定是否n≥N,如果是,则控制前进到步骤825。否则,控制前进到步骤830。在步骤825,只保留与目标像素的距离在±a/2内的候选像素。在步骤830,通过线性插值eq(6)估计目标像素Cs的颜色。
实施例2:未矫正的视图
图8中的合并方案容易延伸到未矫正的视图,只是区别在于候选像素不在目标像素的相同的线上(图1A)。但是,可以应用相同的原理来基于其深度和到目标像素的距离选择候选像素。
可以使用相同的插值方案,即图6。为了更精确的加权,W(ri,i)可以在像素级上进一步确定。例如,应用由3D点Ori-Pi-Os确定的角度,其中Pi是对应于像素l(利用方程(3)估计的)的点的3D位置,Ori和Os分别是参考视图ri和合成视图的光学焦点中心(从摄像机参数可知)。我们推荐设置W(ri,i)=1/angle(Ori-Pi-Os)或对于q>2,W(ri,i)=cosq(angle(Ori-Pi-Os))。图9显示根据本发明的原理的实施例由3D点Ori-Pi-Os确定的角度900。图7的方法700中的步骤725显示了根据一个实施例的基于角度900的加权因子的确定。
实施例3:利用上采样的近似
上述两个实施例中的方案看起来可能对于一些应用太复杂。有一些方法可以近似这些实施例用于快速实施。图10A显示的是根据本发明原理的实施例的用于矫正的视图的情况下简化的上采样实施1000。在图10A中,“+”表示插入半像素位置的新的目标像素。图10B显示的是根据本发明原理的实施例的基于Z缓冲的合并方案1050。在步骤1055中,在每个水平线(例如上采样图10A)的半像素位置生成新样本。在步骤1060中,从距目标像素±1/2内的候选像素中,寻找具有最大深度级的像素并将其颜色作为目标像素Cs(即Z缓存)的颜色。在步骤1065中,利用滤波器进行下采样(例如{1,2,1})。
在合成的视图中,首先在所有半像素位置插入新的目标像素(图10A),即沿水平方向上采样。然后对于每个目标像素,应用简单的Z缓冲方案以估计像素值。该方案相当于在通常情况下(图8)设置thresY=0。为了产生最终的合成视图,应用简单的下采样滤波器(例如{1,2,1})。该滤波器近似在方程(6)中的加权wi
相同的方法也可以应用于未矫正的视图。只是区别在于沿着水平和垂直方向上采样图像。
可以理解虽然关于半像素和半像素位置描述了一个或多个实施例,但是本发明原理可应用于任何大小的子像素(并因此对应于子像素位置),同时保持本发明原理的精神。
实施例4:两步混合
虽然在3DV中通常应用两个参考视图,但是以上描述的混合方案没有限制多少参考视图被提供作为输入。为了使所述方案易于实施,上述方案也可转换为两步,即单独地利用每个参考视图合成虚拟视图(例如应用上述任何方案),然后将所有合成的图像合并在一起。对于实施例3的一个实施例,该实施例利用上采样图像进行合并然后对合并的图像进行下采样。
对于合并部分,可以应用简单的Z缓冲方案(即利用来自不同视图的候选像素,选择最靠近摄像机的一个)。可以选择,也可以应用上述关于W(ri,i)的加权方案。当然,在合并期间可以应用任何其他现有的视图加权方案。
3.后期处理:填充空洞
目标视图内的一些像素在所述混合步骤期间从未被分配有值。这些位置称为空洞,通常是由未遮挡造成的(参考视图内先前几个看不见的场景点在合成视图内没有被覆盖到)。处理这些空洞最简单的方法是检查沿着这些空洞边缘的像素,并使用这些边缘像素的一些来填充这些空洞。由于该步骤不涉及所述混合方案,可以使用任何现有的空洞填充方案。
因此,总之在一个或多个实施方式中,我们提议启发式混合方案:(1)基于深度级别及其变形的图像位置来选择候选像素;和(2)利用由变形的图像位置和摄像机参数确定的加权因子来应用线性插值。
由于我们的方法是启发式的,可能有一些潜在的变化。例如在实施例1和2中,如果有“足够”数量的候选像素则只选择在距离目标像素±a/2像素内的候选像素。1/2是为了便于实施。实际上,其可能是1/k,k可以为任何值。另一方面,可以增加一个或多个选择级别,例如只找到在距离目标像素±a/3,±a/4或±a/6像素内的候选像素等等。可以选择,跳过一步一步的选择过程,从距离目标像素最近的候选像素开始直到有足够的候选像素。另一个更常用的选择是基于到目标像素的距离来分组候选像素,并使用最靠近的组作为候选。
作为实施例3中的另一实施例,在最后的下采样期间,目标视图被上采样到半像素位置以近似线性插值。以增加更多复杂性为代价,可以采用更多级别的上采样来获得更好的精度。此外,沿水平和垂直方向的上采样级别可以是不同的。
我们描述了至少一个实施例,其中从至少一个参考视图位置到虚拟视图位置变形至少一个参考图像或其一部分,以产生至少一个变形的参考。这种实施识别至少一个变形的参考中的第一候选像素和第二候选像素,该第一候选像素和第二候选像素是来自所述虚拟视图位置的虚拟图像中目标像素位置的候选像素。该实施例还基于第一和第二候选像素的值来确定目标像素位置处的像素值。该实施例可以有很多变化。例如,在第一变化中,单个参考图像被变形以产生单个变形的参考,从中获得两个候选像素并用于确定在目标像素位置的像素值。作为另一个例子,在第二变化中,多个参考图像被变形以产生多个变形的参考,并且从每个变形的参考获得单个候选像素并用于确定在目标像素位置的像素值。
我们已经描述了各种实施方式。鉴于以上,前述仅阐释的是本发明原理,因此应当理解本领域技术人员仍能够改动多个替换的解决方法,虽然在此处没有明确地描述,但是这些替换的解决方法体现本发明的原理,并在本发明的精神和范畴内。因此,我们提供具有特定特征和技术方面的一个或多个实施方式。但是,所描述的实施方式的特征和技术方面也可以被改动以用于其它实施方式。相应地,虽然此处所描述的实施例可能是在特定的场景内描述的,但是这样的描述决不应当被视为是限制所述特征和构想为这样的实施方式或者场景。
说明书中提到的本发明原理的“一个实施例”或者“实施例”或者“一种实施方式”或者“实施方式”及它们的其它变化,意思是结合所述实施例所描述的特定特征、结构、特征等等之类包含在本发明原理的至少一个实施例中。因此,出现短语“在一个实施例”、“在实施例中”或者“在一种实施方式中”,或者“在实施方式中”,以及出现在整个说明书中各个地方的其它变化,并不是所有都必须指的是同一个实施例。
要理解的是,使用“/”“和/或”和“至少一个”,例如,在“A/B”、“A和/或B”和“A和B中的至少一个”旨在涵盖只选择第一罗列的选项(A),或者只选择第二罗列的选项(B),或者两个选项都有(A和B)。作为进一步的例子,在“A、B和/或C”和“A、B和C中至少一个”的情况下,这样的表述旨在涵盖只选择第一罗列的选项(A),或者仅选择第二罗列的选项(B),或者仅选择第三罗列的选项(C),或者仅选择第一和第二罗列的选项(A和B),或者仅选择第一和第三罗列的选项(A和C),或者仅选择第二和第三罗列的选项(B和C),或者选择所有的选项(A和B和C)。对于本领域普通技术人员而言,这显而易见是可以被扩展的。
实施方式可以使用各种技术以信号的形式发出信息,包括但不局限于,带内信息、带外信息、数据流数据、隐式信令和显式信令。对于各种实施方式和/或标准,带内信息和显式信令可以包括,片头、SEI消息、其它高级语法和非高级的语法。相应地,虽然可能此处描述的实施方式是在特定的场景中描述的,但是,这样的描述绝不应当被视为是限制所述特征和构思在这样的实施方式或者场景中。
此处所描述的实施方式和特征可以用于MPEG-4AVC标准、或者有MVC扩展的MPEG-4AVC标准,或者有SVC扩展的MPEG-4AVC标准的环境中。但是,这些实施方式和特征可以用于另一种标准和/或推荐(现有的或将来的)的环境中,或者用于不涉及标准和/或推荐的环境中。
此处所描述的实施例可以被实施在,例如,方法或者过程、设备、软件程序、数据流或者信号中。即使所讨论的特征的实施方式仅在单个形式的实施方式的环境下(例如,仅作为方法来讨论),所讨论的特征的实施方式可以以其它形式来实施(例如,设备或者程序)。例如,可以以适当的硬件、软件和固件来实施设备。可以以例如处理器之类的装置来实现所述方法,处理器指的是通用的处理装置,例如,包括计算机、微处理器、集成电路或者可编程逻辑装置。处理器还包括诸如,计算机、手机、便携式/个人数据助理(“PDA”)和其它便于在终端用户之间交流信息的装置之类的通信装置。
此处描述的各种步骤和特征的实施方式可以体现在各种不同的装备或者应用中,特别的是,例如,与数据编码和解码相关联的装备或者应用。这样的装备示例包括编码器、解码器、处理来自于解码器的后期处理器、给编码器提供输入的预处理器、视频编码器、视频解码器、视频编解码器、网络服务器、机顶盒、笔记本电脑、个人计算机、手机、PDA和其它通信装置。应当清楚的是,所述装备可以是移动的,甚至是安装在移动交通工具内。
另外,所述方法可以通过由处理器所执行的指令来实施,这样的指令(和/或由一种实施方式产生的数据值)可以存在处理器可读的介质中,诸如,例如集成电路、软件载体或者其它诸如硬盘、压缩光盘、随机存取存储器(“RAM”)或者只读存储器(“ROM”)之类的存储设备。所述指令可以形成有形地体现在处理器可读介质上的应用程序。指令可以是,例如,硬件、固件、软件或者组合。指令可以在例如,操作系统内、单独的应用中或者二者的组合内。因此,处理器的特征在于,例如,配置为执行处理的装置和包括具有执行处理的指令的处理器可读介质(诸如存储装置)。进一步地,除了或者代替指令,处理器可读介质可以存储一个实施方式所产生的数据值。
实施方式可以产生被格式化来承载例如可以被存储或者被发送的信息的多种信号,这对本领域技术人员而言是显而易见的。所述信息可以包括,例如用于执行一个方法的指令,或者由所描述的一个实施方式生成的数据。例如,信号可以被格式化为承载混合的或者合并的变形的-参考-视图的数据,或者用于混合或者合并变形的参考视图的算法。这样的信号可以被格式化为,例如,作为电磁波(例如,使用波谱的无线射频部分)或者作为基带信号。所述格式化可以包括,例如,对数据流进行编码,并用编码的数据流调制载波。所述信号承载的信息可以是,例如,模拟或者数字信息。所述信号可以在各种不同的有线或者无线链路上传输,这是周知的。所述信号可以存储在处理器可读介质上。
已经描述了一些实施方式。但是,要理解的是可以进行各种修改。例如,可以组合、补充、修改或者移去不同实施方式中的要素,来产生其它实施方式。另外,普通技术人员会明白,可以使用其它结构和处理过程来代替所揭示的这些,并且,如所揭示的实施方式,所获得的实施方式可以以至少基本上相同的方式,执行至少基本上相同的功能,并达到至少基本上相同的结果。相应地,本申请也包含这些及其它实施方式,它们也在权利要求的范围内。

Claims (12)

1.一种视图合成方法,包括:
从第一参考视图位置到虚拟视图位置变形(705)至少一部分第一参考图像,以产生第一变形的参考;
从第二参考视图位置到虚拟视图位置变形至少一部分第二参考图像,以产生第二变形的参考,其中,所述第二参考视图位置不同于所述第一参考视图位置;
识别(710)所述第一变形的参考中的第一候选像素,以及识别所述第二变形的参考中的第二候选像素,所述第一候选像素和所述第二候选像素是来自所述虚拟视图位置的虚拟图像中目标像素位置的候选像素;以及
基于所述第一和第二候选像素的值来确定(725)所述目标像素位置处的像素值,其中,确定所述值包括对所述第一和第二候选像素的每一个使用加权因子对来自所述第一和第二候选像素值的目标像素值进行线性插值。
2.根据权利要求1的方法,其中,所述加权因子是基于第一距离和第二距离确定的,该第一距离是所述第一参考视图位置与所述虚拟视图位置之间的距离,该第二距离是所述第二参考视图位置与所述虚拟视图位置之间的距离(725)。
3.根据权利要求1的方法,其中,所述加权因子是根据所述第一候选像素与所述目标像素位置之间的距离进一步确定的。
4.根据权利要求1的方法,其中,所述加权因子是根据与所述第一候选像素相关联的深度进一步确定的。
5.根据权利要求1的方法,其中识别第一候选像素包括基于所述第一候选像素与所述目标像素位置之间的距离来识别所述第一候选像素(710)。
6.根据权利要求1的方法,其中识别第一候选像素包括基于与所述第一候选像素相关联的深度来识别所述第一候选像素(710)。
7.根据权利要求1的方法,其中识别第一候选像素包括从所述第一变形的参考的多个像素选择所述第一候选像素,以及该多个像素都在所述目标像素位置的临界值距离内,并且所述第一候选像素是基于最靠近摄像机的所述第一候选像素的深度来选择的(710)。
8.根据权利要求7的方法,还包括基于另一像素的深度是否在所述第一候选像素的深度临界值内,从所述多个像素选择该另一像素作为另一候选像素,并且其中确定所述目标像素位置处的像素值还基于该另一候选像素的值(725)。
9.根据权利要求1的方法,还包括:
在所述虚拟图像中的所有子像素位置插入相应的新目标像素,以获得多个相应的新目标像素(1055);
基于与最靠近摄像机的所述第一候选像素和所述第二候选像素的每个相关联的相应的深度,来估计所述多个相应的新目标像素的每个的相应值(1060);以及
利用下采样来产生对应于所述虚拟图像的最终虚拟视图(1065)。
10.根据权利要求9的方法,其中所述插入包括进一步在所述虚拟图像中的所有剩余的子像素位置,插入另一相应的新目标像素。
11.一种视图合成设备,包括:
从第一参考视图位置到虚拟视图位置变形至少一部分第一参考图像,以产生第一变形的参考的装置;
从第二参考视图位置到虚拟视图位置变形至少一部分第二参考图像,以产生第二变形的参考的装置,其中,所述第二参考视图位置不同于所述第一参考视图位置;
识别所述第一变形的参考中的第一候选像素,以及识别所述第二变形的参考中的第二候选像素的装置,所述第一候选像素和所述第二候选像素是来自所述虚拟视图位置的虚拟图像中目标像素位置的候选像素;以及
基于所述第一和第二候选像素的值来确定所述目标像素位置处的像素值的装置,其中,确定所述值包括对所述第一和第二候选像素的每一个使用加权因子对来自所述第一和第二候选像素值的目标像素值进行线性插值。
12.根据权利要求11的设备,其中所述设备包括一个或多个编码器(310)或解码器。
CN200980134021.XA 2008-08-29 2009-08-28 利用启发式视图合并的视图合成 Expired - Fee Related CN102138333B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US9296708P 2008-08-29 2008-08-29
US61/092,967 2008-08-29
US19261208P 2008-09-19 2008-09-19
US61/192,612 2008-09-19
PCT/US2009/004924 WO2010024938A2 (en) 2008-08-29 2009-08-28 View synthesis with heuristic view blending

Publications (2)

Publication Number Publication Date
CN102138333A CN102138333A (zh) 2011-07-27
CN102138333B true CN102138333B (zh) 2014-09-24

Family

ID=41226021

Family Applications (2)

Application Number Title Priority Date Filing Date
CN2009801340224A Pending CN102138334A (zh) 2008-08-29 2009-08-28 利用启发式视图合并的视图合成
CN200980134021.XA Expired - Fee Related CN102138333B (zh) 2008-08-29 2009-08-28 利用启发式视图合并的视图合成

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN2009801340224A Pending CN102138334A (zh) 2008-08-29 2009-08-28 利用启发式视图合并的视图合成

Country Status (8)

Country Link
US (2) US20110148858A1 (zh)
EP (2) EP2321974A1 (zh)
JP (2) JP5551166B2 (zh)
KR (2) KR20110073474A (zh)
CN (2) CN102138334A (zh)
BR (2) BRPI0916882A2 (zh)
TW (2) TW201023618A (zh)
WO (3) WO2010024919A1 (zh)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012513059A (ja) * 2008-12-19 2012-06-07 サーブ エービー 場面と仮想シナリオを融合するシステムおよび方法
JP5249114B2 (ja) * 2009-04-03 2013-07-31 Kddi株式会社 画像生成装置、方法及びプログラム
US9124874B2 (en) * 2009-06-05 2015-09-01 Qualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
JP5209121B2 (ja) * 2009-09-18 2013-06-12 株式会社東芝 視差画像生成装置
JP2011151773A (ja) * 2009-12-21 2011-08-04 Canon Inc 映像処理装置及び制御方法
TWI434227B (zh) * 2009-12-29 2014-04-11 Ind Tech Res Inst 動畫產生系統及方法
CN101895752B (zh) * 2010-07-07 2012-12-19 清华大学 基于图像视觉质量的视频传输方法、系统及装置
CN101895753B (zh) * 2010-07-07 2013-01-16 清华大学 基于网络拥塞程度的视频传输方法、系统及装置
JP5627498B2 (ja) * 2010-07-08 2014-11-19 株式会社東芝 立体画像生成装置及び方法
US8760517B2 (en) * 2010-09-27 2014-06-24 Apple Inc. Polarized images for security
JP5858380B2 (ja) * 2010-12-03 2016-02-10 国立大学法人名古屋大学 仮想視点画像合成方法及び仮想視点画像合成システム
CN103347712B (zh) 2010-12-30 2015-11-25 米其林集团总公司 用于确定轮胎负荷的基于压电的系统和方法
US20120262542A1 (en) * 2011-04-15 2012-10-18 Qualcomm Incorporated Devices and methods for warping and hole filling during view synthesis
US8988558B2 (en) * 2011-04-26 2015-03-24 Omnivision Technologies, Inc. Image overlay in a mobile device
US9536312B2 (en) * 2011-05-16 2017-01-03 Microsoft Corporation Depth reconstruction using plural depth capture units
CN103650492B (zh) * 2011-07-15 2017-02-22 Lg电子株式会社 用于处理3d服务的方法和装置
US9460551B2 (en) * 2011-08-10 2016-10-04 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for creating a disocclusion map used for coding a three-dimensional video
CN102325259A (zh) 2011-09-09 2012-01-18 青岛海信数字多媒体技术国家重点实验室有限公司 多视点视频中虚拟视点合成方法及装置
EP2761878B1 (en) * 2011-09-29 2020-04-08 Dolby Laboratories Licensing Corporation Representation and coding of multi-view images using tapestry encoding
FR2982448A1 (fr) * 2011-11-07 2013-05-10 Thomson Licensing Procede de traitement d'image stereoscopique comprenant un objet incruste et dispositif correspondant
US9236024B2 (en) 2011-12-06 2016-01-12 Glasses.Com Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
JP5911166B2 (ja) * 2012-01-10 2016-04-27 シャープ株式会社 画像処理装置、画像処理方法、画像処理プログラム、撮像装置、及び画像表示装置
KR101664158B1 (ko) * 2012-01-18 2016-10-11 인텔 코포레이션 지능형 계산 촬영 시스템
TWI478095B (zh) 2012-02-07 2015-03-21 Nat Univ Chung Cheng Check the depth of mismatch and compensation depth error of the perspective synthesis method
US10447990B2 (en) * 2012-02-28 2019-10-15 Qualcomm Incorporated Network abstraction layer (NAL) unit header design for three-dimensional video coding
KR101318552B1 (ko) * 2012-03-12 2013-10-16 가톨릭대학교 산학협력단 3차원 영상에 대한 인지 왜곡을 측정하는 측정 방법
CN102663741B (zh) * 2012-03-22 2014-09-24 侯克杰 对彩色数字图像进行视觉立体感知增强的方法及系统
US9311746B2 (en) 2012-05-23 2016-04-12 Glasses.Com Inc. Systems and methods for generating a 3-D model of a virtual try-on product
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
CN103716641B (zh) * 2012-09-29 2018-11-09 浙江大学 预测图像生成方法和装置
US9596445B2 (en) 2012-11-30 2017-03-14 Panasonic Intellectual Property Management Co., Ltd. Different-view image generating apparatus and different-view image generating method
EP2765774A1 (en) 2013-02-06 2014-08-13 Koninklijke Philips N.V. System for generating an intermediate view image
KR102039741B1 (ko) * 2013-02-15 2019-11-01 한국전자통신연구원 영상 워핑을 위한 장치 및 방법
US9426451B2 (en) * 2013-03-15 2016-08-23 Digimarc Corporation Cooperative photography
CN104065972B (zh) * 2013-03-21 2018-09-28 乐金电子(中国)研究开发中心有限公司 一种深度图像编码方法、装置及编码器
WO2014163468A1 (ko) * 2013-04-05 2014-10-09 삼성전자 주식회사 시점 합성 예측을 이용하기 위한 인터 레이어 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
US20140375663A1 (en) * 2013-06-24 2014-12-25 Alexander Pfaffe Interleaved tiled rendering of stereoscopic scenes
EP3014579B1 (en) * 2014-04-30 2018-09-26 Intel Corporation System and method of limiting processing by a 3d reconstruction system of an environment in a 3d reconstruction of an event occurring in an event space
TWI517096B (zh) * 2015-01-12 2016-01-11 國立交通大學 用於立體影像合成之逆向深度映射方法
CN104683788B (zh) * 2015-03-16 2017-01-04 四川虹微技术有限公司 基于图像重投影的空洞填充方法
WO2016172385A1 (en) * 2015-04-23 2016-10-27 Ostendo Technologies, Inc. Methods for full parallax compressed light field synthesis utilizing depth information
KR102465969B1 (ko) * 2015-06-23 2022-11-10 삼성전자주식회사 그래픽스 파이프라인을 수행하는 방법 및 장치
US9773302B2 (en) * 2015-10-08 2017-09-26 Hewlett-Packard Development Company, L.P. Three-dimensional object model tagging
CN105488792B (zh) * 2015-11-26 2017-11-28 浙江科技学院 基于字典学习和机器学习的无参考立体图像质量评价方法
EP3496388A1 (en) 2017-12-05 2019-06-12 Thomson Licensing A method and apparatus for encoding a point cloud representing three-dimensional objects
KR102133090B1 (ko) * 2018-08-28 2020-07-13 한국과학기술원 실시간 3차원 360 영상 복원 방법 및 그 장치
KR102491674B1 (ko) * 2018-11-16 2023-01-26 한국전자통신연구원 가상시점 영상을 생성하는 방법 및 장치
US11528461B2 (en) * 2018-11-16 2022-12-13 Electronics And Telecommunications Research Institute Method and apparatus for generating virtual viewpoint image
US11393113B2 (en) 2019-02-28 2022-07-19 Dolby Laboratories Licensing Corporation Hole filling for depth image based rendering
US11670039B2 (en) 2019-03-04 2023-06-06 Dolby Laboratories Licensing Corporation Temporal hole filling for depth image based video rendering
KR102192347B1 (ko) * 2019-03-12 2020-12-17 한국과학기술원 실시간 폴리곤 기반 360 영상 복원 방법 및 그 장치
EP4304181A3 (en) 2019-04-01 2024-02-21 Beijing Bytedance Network Technology Co., Ltd. Using interpolation filters for history based motion vector prediction
US10930054B2 (en) * 2019-06-18 2021-02-23 Intel Corporation Method and system of robust virtual view generation between camera views
CN112291549B (zh) * 2020-09-23 2021-07-09 广西壮族自治区地图院 一种基于dem的光栅地形图立体序列帧图像的获取方法
US11570418B2 (en) 2021-06-17 2023-01-31 Creal Sa Techniques for generating light field data by combining multiple synthesized viewpoints
KR20230103198A (ko) * 2021-12-31 2023-07-07 주식회사 쓰리아이 3차원 가상모델 생성을 위한 텍스처링 방법 및 그를 위한 컴퓨팅 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1462561A (zh) * 2001-05-08 2003-12-17 皇家菲利浦电子有限公司 用于多视图合成的方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3826236B2 (ja) * 1995-05-08 2006-09-27 松下電器産業株式会社 中間像生成方法、中間像生成装置、視差推定方法、及び画像伝送表示装置
JP3769850B2 (ja) * 1996-12-26 2006-04-26 松下電器産業株式会社 中間視点画像生成方法および視差推定方法および画像伝送方法
EP1264281A4 (en) * 2000-02-25 2007-07-11 Univ New York State Res Found ARRANGEMENT AND METHOD FOR PROCESSING AND PLAYING A VOLUME
US7079157B2 (en) * 2000-03-17 2006-07-18 Sun Microsystems, Inc. Matching the edges of multiple overlapping screen images
US7085409B2 (en) * 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
JP2004537082A (ja) * 2001-01-26 2004-12-09 ザクセル システムズ インコーポレイテッド 仮想現実環境における実時間バーチャル・ビューポイント
US7003136B1 (en) * 2002-04-26 2006-02-21 Hewlett-Packard Development Company, L.P. Plan-view projections of depth image data for object tracking
US7348963B2 (en) * 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
EP1542167A1 (en) * 2003-12-09 2005-06-15 Koninklijke Philips Electronics N.V. Computer graphics processor and method for rendering 3D scenes on a 3D image display screen
US7292257B2 (en) * 2004-06-28 2007-11-06 Microsoft Corporation Interactive viewpoint video system and process
US7364306B2 (en) * 2005-06-20 2008-04-29 Digital Display Innovations, Llc Field sequential light source modulation for a digital display system
CA2553473A1 (en) * 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
US7471292B2 (en) * 2005-11-15 2008-12-30 Sharp Laboratories Of America, Inc. Virtual view specification and synthesis in free viewpoint

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1462561A (zh) * 2001-05-08 2003-12-17 皇家菲利浦电子有限公司 用于多视图合成的方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"Forward Rasterization:A reconstruction algorithm for image based rending";Voicu Popescu;《Depatment of computer science,Chapel Hill》;20010529(第TR01-019期);第4.2部分 *
Eddie Cook,Peter Kauff,Thomas Sikora."Multi-view synthesis: A novel view creation approach for free viewpoint video".《SIGNAL PROCESSING:IMAGE COMMUNICATION》.2006,第21卷(第6期),第480-485页,Fig.2.
Eddie Cook,Peter Kauff,Thomas Sikora."Multi-view synthesis: A novel view creation approach for free viewpoint video".《SIGNAL PROCESSING:IMAGE COMMUNICATION》.2006,第21卷(第6期),第480-485页,Fig.2. *
Voicu Popescu."Forward Rasterization:A reconstruction algorithm for image based rending".《Depatment of computer science,Chapel Hill》.2001,(第TR01-019期),第4.2部分.

Also Published As

Publication number Publication date
BRPI0916902A2 (pt) 2015-11-24
WO2010024925A1 (en) 2010-03-04
JP5551166B2 (ja) 2014-07-16
JP2012501580A (ja) 2012-01-19
US20110157229A1 (en) 2011-06-30
BRPI0916882A2 (pt) 2016-02-10
WO2010024938A3 (en) 2010-07-15
WO2010024919A1 (en) 2010-03-04
JP2012501494A (ja) 2012-01-19
EP2321974A1 (en) 2011-05-18
KR20110063778A (ko) 2011-06-14
CN102138333A (zh) 2011-07-27
TW201023618A (en) 2010-06-16
US20110148858A1 (en) 2011-06-23
EP2327224A2 (en) 2011-06-01
WO2010024938A2 (en) 2010-03-04
TWI463864B (zh) 2014-12-01
TW201029442A (en) 2010-08-01
KR20110073474A (ko) 2011-06-29
CN102138334A (zh) 2011-07-27

Similar Documents

Publication Publication Date Title
CN102138333B (zh) 利用启发式视图合并的视图合成
JP6159849B2 (ja) 3d映像フォーマット
CN102124742B (zh) 精制深度图
CN102939763B (zh) 计算三维图像的视差
CN106131531B (zh) 视频处理方法和装置
CN102017632B (zh) 虚拟基准视图
CN109996055A (zh) 位置零时延
CN102158733B (zh) 辅助视频补充信息承载方法、处理方法、装置与系统
CN102823260B (zh) 视差值指示
CN104838648A (zh) 用于创建和重建视频流的装置和方法
CN104041027A (zh) 用于三维显示的显示处理器
CN103379332A (zh) 三维视频序列辅助信息的解码方法、编码方法及装置
CN105052157A (zh) 图像帧复用方法及系统
US7439976B2 (en) Visual communication signal
CN112400316A (zh) 用于编码和解码三自由度和体积式兼容的视频流的方法和设备
US11910054B2 (en) Method and apparatus for decoding a 3D video
US20110234769A1 (en) Apparatus and method for displaying images in image system
CN104769940B (zh) 深度信令数据
KR20170045633A (ko) 파노라믹 비디오 제공 서버에서 수행되는 파노라믹 비디오 서비스 제공 방법, 파노라믹 비디오 제공 서버 및 시스템
US11823323B2 (en) Apparatus and method of generating an image signal
US20230401752A1 (en) Techniques using view-dependent point cloud renditions
Rahaman View Synthesis for Free Viewpoint Video Using Temporal Modelling
Ostermann et al. MPEG video compression future
GB2488746A (en) Transmission of 3D subtitles in a three dimensional video system
Lee et al. Verification of 3D mobile broadcasting service based on depth-image based rendering technique in terrestrial-DMB

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20140924

Termination date: 20150828

EXPY Termination of patent right or utility model