CN101351838B - 后处理多媒体流使之可搜索的方法和系统 - Google Patents
后处理多媒体流使之可搜索的方法和系统 Download PDFInfo
- Publication number
- CN101351838B CN101351838B CN2006800501600A CN200680050160A CN101351838B CN 101351838 B CN101351838 B CN 101351838B CN 2006800501600 A CN2006800501600 A CN 2006800501600A CN 200680050160 A CN200680050160 A CN 200680050160A CN 101351838 B CN101351838 B CN 101351838B
- Authority
- CN
- China
- Prior art keywords
- sound
- fragment
- media stream
- stream
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 239000012634 fragment Substances 0.000 claims description 32
- 230000008878 coupling Effects 0.000 claims description 4
- 238000010168 coupling process Methods 0.000 claims description 4
- 238000005859 coupling reaction Methods 0.000 claims description 4
- 230000000295 complement effect Effects 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 claims 2
- 238000006243 chemical reaction Methods 0.000 abstract description 10
- 238000012805 post-processing Methods 0.000 abstract 3
- 238000003860 storage Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 3
- 230000033228 biological regulation Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000003760 hair shine Effects 0.000 description 2
- 238000004321 preservation Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 208000037805 labour Diseases 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000007634 remodeling Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/27—Server based end-user applications
- H04N21/278—Content descriptor database or directory service for end-user access
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/234309—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4 or from Quicktime to Realvideo
Abstract
本发明提供一种系统和方法,使得被存档的会议或演示在存储到存档数据库之后可被搜索。根据本发明,依照H.323或SIP编码的一个或多个媒体流被传送给转换引擎,用来把多媒体内容转换成标准流格式,这可以是文件的聚簇,各表示特定的媒体(音频、视频、数据),和/或是把不同媒体同步和关联在一起的结构文件。当执行转换时,复制所述的结构文件并传递给后处理服务器。后处理服务器例如包括语音识别引擎,用于产生表示音频文件中所有被识别词的字母数字字符的文本文件。然后所述文本文件被加入文件聚簇,在结构文件中,把每个识别的词与时序标签相关联。在这种后处理之后,通过传统的搜索引擎可以很容易地执行在媒体流中查找关键词和相关联的时间点。
Description
技术领域
本发明涉及视频会议和流送/存档系统。
背景技术
为了在位于不同地域的参会者之间举行会议,可使用若干种技术系统。这些系统可包括视频会议、web会议或音频会议。
真实会议的最现实的替代是高端视频会议系统。传统的视频会议系统包括若干端点,用于通过WAN、LAN和/或电路交换网络传送实时视频、音频和/或数据流。所述端点包括一个或多个监视器、摄像机、麦克风和/或数据获取装置以及分别用来编码和解码呼出流和呼入流的编解码器。另外,还需要集中式的源,熟知的如多点控制单元(MCU),用来把多个端点链接在一起。MCU通过利用点对点连接从端点终端接收多媒体信号(音频、视频和/或数据)来执行这种链接,处理所接收的信号,并且把经处理的信号再传送给会议中选定的端点终端。
通过利用视频会议系统,例如PowerPoint演示或任何其他PC-演示可以被呈现,同时依然可以看到和听到所有其他参会者。
另外的呈现多媒体内容的常用方式是通过web接口把数据流送(stream)至计算机。这种数据流可以是实时传送的,或是通过发布装置的存档内容的重放。传统的流式数据适用于存储和发布,并且因此较之视频会议,可用不同格式来表示多媒体内容。这样,为了能够流送和存档传统的视频会议,需要一种转换多媒体数据的系统。下面就描述这种系统的一个例子。
发布装置优选配备有:用来把该装置连接至计算机网络的网络接口;用于接收会议内容的音频/视频和演示数据接口;用于为了发布而把演示内容转换成标准图像格式的文件转换引擎;以及用于为发布而把内容编码成流格式的流编码器。发布装置还进一步配备有:流服务器,用于传送编码的音频/视频内容;以及web服务器,用于把web页面和转换的演示内容传送给位于网络各节点的终端。所述发布装置还适用于建立由编码的流数据构成的、驻于本地存储介质或服务器/数据库的存档文件,使得在以后可通过计算机网络进行对位于远程终端的请求者的点播式(on-demand)发布。
根据操作的典型方式,通过把发布装置作为参会者包括在会议中来发起会议。在远程终端的观察者可通过把传统的web浏览器指向与所述发布装置相关联的URL(统一资源定位符)来接入会议。在完成该观察者和发布装置之间的验证数据交换之后,该观察者能够观看个人交换,如在会议主持场点的参会者之间发生的会话和相关联的行为,以及能够观察在该会议场点呈现的演示内容。通过观察者的web浏览器在多窗口用户界面观看多媒体内容,通过流媒体播放器呈现音频/视频内容,并且在单独的窗口显示演示内容。当会议主席或会议管理系统请求,编码的流数据被存储在服务器作为可识别文件。
流送和会议技术的结合给出了新的可能性,可用来存储和归档会议、演示、讲演和其他形式的会话和发言。但是,如果不能在存档的流数据内容中搜索,价值就非常有限。已知的在存档流数据中搜索的唯一方法是以手工方式把元数据和存储文件相关联。但是,这需要大量的人工劳动,并且也不能保证元数据正确对应到流数据。
发明内容
本发明的一个目的是提供一种系统和方法,用于解决现有技术中的上述问题。特别,本发明提供一种在流送和存档系统中用于后处理多媒体流的方法,使得所述多媒体流可搜索,所述多媒体流是从传统会议格式编码数据流转换的,该方法包括步骤:在H.323/SIP兼容的转换引擎中监视是否接收到H.323或SIP编码的数据流,并且如果接收到,则按定义的多媒体流格式把所述传统会议格式编码数据流转换成多媒体流,包括与所述多媒体流的相应片断相关的时序信息,产生每个相应声音片断或声音片断序列的模型并把每个相应声音片断或声音片断序列的所述相应模型与存储在数据库中的已知词或音素的发音的参考模型做比较,由此利用语音识别引擎来分析来自所述多媒体流的音频部分的声音片断,并且,最后,当所述语音识别引擎发现某个声音片断或声音片断序列的模型与所述数据库中的已知词的发音的参考模型相匹配,则分配时序信息用来指示所述声音片断或声音片断序列,并且在文本文件中相关联地存储所述时序信息和所述词。
本发明还提供与上述方法对应的系统。
附图说明
为了使本发明更易于理解,下面的讨论将参照下列附图:
图1示出了马尔可夫建模的状态图;
图2示出ASF流格式的数据结构;
图3是ASF流格式数据结构的两个特定部分的更详细图示;
图4示出本发明一个实施例的全部步骤的流程图。
具体实施方式
在下面,通过描述优选的实施例并参照附图来讨论本发明。但是,在本申请的独立权利要求定义的本发明的范围之内,本领域技术人员可以实现其他的应用和改型。
尽管视频会议是可视的,视频会议中许多外在的信息是按参会者之间的话语交流形式来呈现的。因此,会议的音频部分是在其中进行搜索的最适当媒体。
本发明提供一种系统和方法,使得存档的会议或演示被存储在存档服务器之后能够被搜索。根据本发明,一个或多个根据H.323或SIP编码的媒体流被传送给转换引擎,用来把多媒体内容转换成标准的流格式,这可以是文件的聚簇,各表示特定的媒体(音频、视频、数据),和/或是把不同媒体同步和关联在一起的结构文件。当执行转换时,复制所述的结构文件并传送给后处理服务器。后处理服务器例如包括语音识别引擎,用于产生表示音频文件中所有被识别词的字母数字字符的文本文件。然后所述文本文件被加入文件聚簇,在结构文件中,把每个识别的词与时序标签相关联。在这种后处理之后,通过传统的搜索引擎可以很容易地执行在媒体流中查找关键词和相关联的时间点。
上述的结构文件的例子在美国专利US6041345中公开,其中定义了活动流格式(Active Stream Format,ASF),用于多媒体流的存储和传输。ASF格式的概要在图2中示出。
为了实现本发明,需要用于语音识别引擎的鲁棒而有效的语音识别方法。按照最简单的定义,语音识别是识别口语词汇即语音、并且随后把该语音转换成字处理程序或某些其他应用所使用的文本或传递给操作系统的命令解释器的自动化过程。这种识别过程包括把数字化的音频数据分解成有意义的片断。然后对照已知音素的数据库来映射这些片断,并且对照已知的词汇表或词典来映射这种语音序列。
在语音识别中,常常使用隐马尔可夫模型(HMMs)。当建立HMM语音识别系统,可识别词汇表中的每个词被定义成声音的序列或语音片断,类似于该词的发声。建立用于每个语音片断的马尔可夫模型。然后把用于每个声音的马尔可夫模型的串接在一起以形成马尔可夫模型的序列,用于描述词汇表中该词的声学定义。
例如,如图1所示,用于词“TEN”的语音词100被示为三个语音马尔可夫模型构成的序列101~103。一个语音马尔可夫模型表示语音元素“T”(101),具有两个转移弧101A和101B。第二个语音马尔可夫模型表示语音元素“EH”,示为模型102,具有转移弧102A和102B。第三个语音马尔可夫模型103表示语音元素“N”,具有转移弧103A和103B。
图1中三个马尔可夫模型的每个都具有开头状态和结尾状态。“T”模型101以状态104开头并以状态105结尾。“EH”模型102以状态105开头并以状态106结尾。“N”模型103以状态106开头并以状态107结尾。尽管没有示出,实际上,每个模型在它们各自的开头状态和结尾状态之间还具有状态,与所示的弧101A耦接状态104和105的方式一样。多个弧延伸并连接各状态。在识别期间,某个发声(utterance)与语音马尔可夫模型序列做比较,从最左状态(如状态104)开始,依照经各中间状态至最右状态(如状态107)的箭头行进,其中模型100按照本领域公知的方式终结。从最左状态104至最右状态107的转移时间反映了该词的持续时长。因此,为了从最左状态向最右状态转移,必须在“T”状态、“EH”状态和“N”状态花费时间以产生所述发声是词“TEN”的结果。这样,用于某个词的隐马尔可夫模型包括一系列模型,对应于在该词发声时所发出的不同声音。
为了建立如图1所示的马尔可夫模型,常常使用发音词典来指出各组成声音。存在各种词典并可以使用。这些词典的信息源通常是语言学者。按词典中描述的属于某个词的组成声音要基于专家和语言学者的判断。
还有其他实现语音识别的方法,如通过单独使用神经网络或与马尔可夫模型相结合,这可以与本发明一起使用。
根据本发明,每个被识别的词相继地与时序标签(timing tag)相关联,时序标签用于指示音频文件中的特定位置。作为例子,上述图2中示出的ASF格式在数据节211中存储媒体样本。与该数据节相关联,有几个时间和同步数据的指示。ASF流例如包括marker_object 206,用于保存指向数据节211中特定时间的指针。marker_object使得用户可快速向前或向后跳至由marker_object 206中保存的标记所指定的特定时间点(如音轨)。
图3A详细示出了marker_object 206。marker_object 206包括:object_id字段301,用于保存统一唯一标识符(UUID);以及size字段302,用于按字节数规定marker_object的长度。marker_id字段303包含UUID,用于识别标记数据策略,并且num_entries字段304规定marker_object 206中标记项的数目。entry_alignment字段305标示标记数据的字节对齐,并且name_len字段306规定在name字段307中保存多少Unicode字符,name字段保存marker_object 206的名称。最后,marker_data字段308保存表中的各标记。每个标记在表中具有相关联的项。
图3B示出了诸如在marker_data字段308中找到的marker_entry 309的格式。Offset字段310保存从data_object 212中分组起始点的按字节的偏移量,用于指示marker_entry 309的位置。Time字段311规定用于marker_entry 309的时间戳。entry_len字段312规定entry_data字段313的长度,entry_data字段313是用于保存标记项数据的数组。
在本发明的一个实施例中,与待由马尔可夫模型分析的声音片断的起始相关联的时间(time)字段311和/或偏移(offset)字段310存储在临时存储区。如果语音识别引擎在声音片断中识别了某个词,time字段311和/或offset字段310被定义成所识别词的时序标签,并且在所识别词的文本文件中与该词相关联地存储在一起。作为替换,时序标签还可以包括ASF结构中的某些其他字段,用于表示数据的时序信息。在本发明的另外实施例中,表示被识别词声音片断结尾的时序信息与该词相关联,这样减少了临时存储区的需要。
下面根据图4的流程图描述本发明示例性实施例。如同传统H.323/SIP端点可用来接收H.323/SIP呼叫的转换引擎监视是否接收到H.323/SIP呼叫。当接收到H.323/SIP呼叫,它通过本领域公知的传统转换码技术把接收的编码H.323/SIP数据转换成上述的ASF格式。当该呼叫结束,或当接收到终结录音的请求,把ASF流存储在存档服务器。实际上,随着多媒体数据被转换,相继地存储所述流。
然后,如果请求语音识别,把ASF流复制到后处理服务器。后处理服务器开始分解数据,以根据上述的马尔可夫模型分析声音片断。当找到声音片断的马尔可夫模型和发音词典中的特定词或字符的马尔可夫模型之间的匹配,把该特定词或字符连同时序标签存储在文本文件中。该时序标签是从例如marker_object 206获取的,marker_object 206用来表示ASF流中与该声音片断相关联的数据的时间位置,从该位置识别所述词或字符。ASF格式的多媒体同步特征隐含了用于音频内容的时序标签也表示用于该ASF流中视频内容中对应时间位置的时序标签。
当对可识别词分解了所有音频内容,所述文本文件包括若干与各自时间标签相关联的词和字符。该文件与相应的ASF存储流相关联地存储在存档服务器中。
当存储了带有相关联时序标签的转换的多媒体会议或呼叫中的被识别词的文件,则可以通过关键词来搜索该呼叫/会议,并且命中结果与该多媒体流中的特定时间相联系。
一种使用的例子是向用户提供一种搜索引擎,不同于传统的用来在简单文本中搜索的搜索引擎。可以给用户在一个或若干存储和转换的呼叫/会议中搜索的选择。搜索的结果可被表示成命中结果的列表,带有如会议标识、会议中时间等信息。另外,用户可以从会议中找到关键词的时间重新播放媒体流,例如通过命中结果之后的播放按钮。当用户按下播放按钮,可以重放媒体流的媒体播放器被启动,并且与命中结果相关联的时序标签用于指出媒体播放器应该从媒体流中何处开始播放。为了方便起见,媒体播放器应该在实际命中结果的时间略前一点开始播放。因此,可从时序标签减去预定义的偏移。
作为例子,在转换的会议中,利用语音识别方法,通过音频内容中的口语词汇的马尔可夫模型与发音词典中的“agreement”的马尔可夫模型之间的匹配,来识别词“agreement”。在会议之后,用户有兴趣调查参会者是否在会议期间达成协议(agreement)。用户在他的多媒体搜索引擎中选择感兴趣的会议,并键入词“agreement”。这样,两个命中结果表现为在时间上相对靠近。用户按第一个命中结果的播放按钮,并且可看到讨论协议的会议部分,并且他可以明白该讨论仅限于该会议的被识别部分。
注意,尽管这里只提及用于多媒体流的ASF格式,但本发明也可与其他用于诸如QuickTime、RealPlayer等各种播放器的当前和未来的相应多媒体格式相结合使用。
在本发明的替换实施例中,识别的音素被存储、分组,但并不试图按任何特定语言把它们转换成词。然后根据这些组的选择来建立索引,例如使用来自几种语言的分类体系和一组词典,或通过频率或强调。然后,还可以登记音素的音量或重音或语调,用于待索引的组的选择。
在另外的替换实施例中,某个参会者或秘书可标记用来构成索引基础的词或音素组,或输入一组判据,例如使用语音。
在另外的替换实施例中,索引基于在几种语言中可用的共同分类体系。
Claims (8)
1.一种在流送和存档系统中用于后处理多媒体流的方法,使得所述多媒体流可搜索,所述多媒体流是从传统会议格式编码数据流转换的,其特征在于:
在H.323/SIP兼容的转换引擎中监视是否接收到H.323或SIP编码的数据流,并且如果接收到,则:
按定义的多媒体流格式把所述传统会议格式编码数据流转换成多媒体流,包括与所述多媒体流的相应片断相关的时序信息,
通过下述步骤用语音识别引擎来分析来自所述多媒体流的音频部分的声音片断:
产生每个相应声音片断或声音片断序列的模型,
把每个相应声音片断或声音片断序列的相应模型与存储在数据库中的已知词或音素的发音的参考模型做比较,
当所述语音识别引擎发现某个声音片断或声音片断序列的模型与所述数据库中的已知词的发音的参考模型相匹配,则分配时序信息用来指示所述声音片断或声音片断序列,并且在文本文件中相关联地存储所述时序信息和所述词。
2.如权利要求1所述的方法,其特征在于所述分析步骤进一步包括步骤:
提取并临时存储用来指出当前声音片断在所述多媒体流中的时间位置的信息,
如果在包括当前声音的当前声音片断或声音片断序列的模型与所述数据库中已知词的发音的参考模型之间找到匹配,则使用所述时间位置作为所述时序信息,该时序信息在所述文本文件中与所述词相关联地存储在一起。
3.如权利要求1或2所述的方法,其特征在于:
当分析了来自所述多媒体流的所述音频部分的所有声音片断,在所述流送和存档系统存储所述文本文件,使得所述文本文件可用于以后在所述多媒体流中的搜索。
4.如权利要求1或2所述的方法,其特征在于所述模型和参考模型包括马尔可夫模型。
5.如权利要求1或2所述的方法,其特征在于所述定义的多媒体流格式是活动流格式ASF。
6.如权利要求5所述的方法,其特征在于所述时序信息是与所匹配的声音片断或声音片断序列的开头或结尾相关联的ASF的时间字段和/或偏移字段。
7.如权利要求1或2所述的方法,其特征在于传统会议格式编码数据流是H.323或SIP编码的数据流。
8.一种用于后处理多媒体流的系统,使得所述多媒体流可搜索,所述多媒体流是从传统会议格式编码数据流转换的,其特征在于:
转换引擎,被构造成用于接收H.323或SIP编码的数据流,并且按定义的多媒体流格式把传统会议格式编码数据流转换成多媒体流,包括与所述多媒体流相应片断相关的时序信息,
后处理服务器,被构造成用于接收所述多媒体流的副本,
语音识别引擎,包含在或连接至所述后处理服务器,被构造成用于分析来自所述多媒体流的音频部分的声音片断,并且把每个相应声音片断或声音片断序列的模型与存储在数据库中的已知词或音素的发音的参考模型做比较,
时间分配装置,被构造成用于当所述语音识别引擎发现某个声音片断或声音片断序列的模型与所述数据库中的已知词的发音的参考模型相匹配,则关联时序信息用来指示所述声音片断或声音片断序列,并且在文本文件中相关联地存储所述时序信息和所述词。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
NO20056255 | 2005-12-30 | ||
NO20056255A NO325191B1 (no) | 2005-12-30 | 2005-12-30 | Sokbar multimedia strom |
PCT/NO2006/000423 WO2007078200A1 (en) | 2005-12-30 | 2006-11-22 | Searchable multimedia stream |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101351838A CN101351838A (zh) | 2009-01-21 |
CN101351838B true CN101351838B (zh) | 2011-08-03 |
Family
ID=38228471
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2006800501600A Expired - Fee Related CN101351838B (zh) | 2005-12-30 | 2006-11-22 | 后处理多媒体流使之可搜索的方法和系统 |
Country Status (6)
Country | Link |
---|---|
US (1) | US8103507B2 (zh) |
EP (1) | EP1969592B1 (zh) |
JP (1) | JP2009522845A (zh) |
CN (1) | CN101351838B (zh) |
NO (1) | NO325191B1 (zh) |
WO (1) | WO2007078200A1 (zh) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8451317B2 (en) * | 2007-04-30 | 2013-05-28 | Hewlett-Packard Development Company, L.P. | Indexing a data stream |
US20090150159A1 (en) * | 2007-12-06 | 2009-06-11 | Sony Ericsson Mobile Communications Ab | Voice Searching for Media Files |
WO2010059120A1 (en) * | 2008-11-21 | 2010-05-27 | Telefonaktiebolaget L M Ericsson (Publ) | Method, a media server, computer program and computer program product for combining a speech related to a voice over ip voice communication session between user equipments, in combination with web based applications |
JP2010154397A (ja) * | 2008-12-26 | 2010-07-08 | Sony Corp | データ処理装置、データ処理方法、及び、プログラム |
US20100324895A1 (en) * | 2009-01-15 | 2010-12-23 | K-Nfb Reading Technology, Inc. | Synchronization for document narration |
US8958685B2 (en) | 2009-08-17 | 2015-02-17 | Avaya Inc. | Word cloud audio navigation |
CN101996631B (zh) * | 2009-08-28 | 2014-12-03 | 国际商业机器公司 | 用于对齐文本的方法和装置 |
CN101996195B (zh) * | 2009-08-28 | 2012-07-11 | 中国移动通信集团公司 | 音频文件中语音信息的搜索方法、装置及设备 |
US8392186B2 (en) | 2010-05-18 | 2013-03-05 | K-Nfb Reading Technology, Inc. | Audio synchronization for document narration with user-selected playback |
US8788451B2 (en) | 2011-02-18 | 2014-07-22 | Avaya Inc. | Central repository for searches |
CN104077296B (zh) * | 2013-03-27 | 2017-12-29 | 联想(北京)有限公司 | 处理信息的方法和服务器 |
US9304657B2 (en) | 2013-12-31 | 2016-04-05 | Abbyy Development Llc | Audio tagging |
JP6400936B2 (ja) * | 2014-04-21 | 2018-10-03 | シノイースト・コンセプト・リミテッド | 音声検索方法、音声検索装置、並びに、音声検索装置用のプログラム |
CN104078044B (zh) * | 2014-07-02 | 2016-03-30 | 努比亚技术有限公司 | 移动终端及其录音搜索的方法和装置 |
EP3026668A1 (en) * | 2014-11-27 | 2016-06-01 | Thomson Licensing | Apparatus and method for generating visual content from an audio signal |
CN105161104A (zh) * | 2015-07-31 | 2015-12-16 | 北京云知声信息技术有限公司 | 一种语音处理方法及装置 |
US10178144B1 (en) * | 2015-12-14 | 2019-01-08 | Marvell International Ltd. | Scattering audio streams |
GB2549117B (en) * | 2016-04-05 | 2021-01-06 | Intelligent Voice Ltd | A searchable media player |
CN111213205B (zh) * | 2019-12-30 | 2023-09-08 | 深圳市优必选科技股份有限公司 | 一种流式语音转换方法、装置、计算机设备及存储介质 |
CN111161711B (zh) * | 2020-04-01 | 2020-07-03 | 支付宝(杭州)信息技术有限公司 | 对流式语音识别文本进行断句的方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2351628A (en) * | 1999-04-14 | 2001-01-03 | Canon Kk | Image and sound processing apparatus |
CN1296257A (zh) * | 1999-11-10 | 2001-05-23 | 国际商业机器公司 | 数据档案系统中基于语义单元的自动索引和搜索方法及设备 |
CN1343337A (zh) * | 1999-03-05 | 2002-04-03 | 佳能株式会社 | 数据库注释和获取 |
CN1581951A (zh) * | 2003-08-15 | 2005-02-16 | 株式会社东芝 | 信息处理设备及其方法 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3185505B2 (ja) * | 1993-12-24 | 2001-07-11 | 株式会社日立製作所 | 会議録作成支援装置 |
CA2151073A1 (en) * | 1994-07-28 | 1996-01-29 | Bishnu Saroop Atal | Intelligent human interface system |
US6041345A (en) * | 1996-03-08 | 2000-03-21 | Microsoft Corporation | Active stream format for holding multiple media streams |
US6243676B1 (en) * | 1998-12-23 | 2001-06-05 | Openwave Systems Inc. | Searching and retrieving multimedia information |
US6535848B1 (en) * | 1999-06-08 | 2003-03-18 | International Business Machines Corporation | Method and apparatus for transcribing multiple files into a single document |
US7542068B2 (en) * | 2000-01-13 | 2009-06-02 | Polycom, Inc. | Method and system for controlling multimedia video communication |
US7047192B2 (en) * | 2000-06-28 | 2006-05-16 | Poirier Darrell A | Simultaneous multi-user real-time speech recognition system |
US7039585B2 (en) * | 2001-04-10 | 2006-05-02 | International Business Machines Corporation | Method and system for searching recorded speech and retrieving relevant segments |
WO2002091692A1 (en) * | 2001-04-13 | 2002-11-14 | Girard Gregory D | Ditributed edge switching system for voice-over-packet multiservice network |
EP1468559A4 (en) * | 2002-01-16 | 2005-07-27 | Polycom Inc | METHOD AND SYSTEM FOR CONTROLLING MULTIMEDIA VIDEO COMMUNICATION |
US7191129B2 (en) * | 2002-10-23 | 2007-03-13 | International Business Machines Corporation | System and method for data mining of contextual conversations |
KR100486733B1 (ko) * | 2003-02-24 | 2005-05-03 | 삼성전자주식회사 | 음소 결합정보를 이용한 연속 음성인식방법 및 장치 |
JP2004310034A (ja) * | 2003-03-24 | 2004-11-04 | Matsushita Electric Works Ltd | 対話エージェントシステム |
JP2004343392A (ja) * | 2003-05-15 | 2004-12-02 | Nec Saitama Ltd | 議事録機能付き携帯電話機およびその議事録生成処理方法 |
JP2005094659A (ja) * | 2003-09-19 | 2005-04-07 | Canon Inc | 画像通信装置 |
US7433327B2 (en) * | 2003-10-09 | 2008-10-07 | Hewlett-Packard Development Company, L.P. | Method and system for coordinating communication devices to create an enhanced representation of an ongoing event |
JP3757229B2 (ja) * | 2003-11-21 | 2006-03-22 | 有限会社 ビービー・ビスタ | 学術会議等の講演、講義等の編集システム、及び知識内容配信システム |
JP4558308B2 (ja) * | 2003-12-03 | 2010-10-06 | ニュアンス コミュニケーションズ,インコーポレイテッド | 音声認識システム、データ処理装置、そのデータ処理方法及びプログラム |
JP2005295142A (ja) * | 2004-03-31 | 2005-10-20 | Victor Co Of Japan Ltd | 映像情報管理サーバ及び映像情報管理方法 |
US7912699B1 (en) * | 2004-08-23 | 2011-03-22 | At&T Intellectual Property Ii, L.P. | System and method of lattice-based search for spoken utterance retrieval |
US20080255837A1 (en) * | 2004-11-30 | 2008-10-16 | Jonathan Kahn | Method for locating an audio segment within an audio file |
JP2006268800A (ja) * | 2005-03-25 | 2006-10-05 | Fuji Xerox Co Ltd | 議事録作成支援装置、議事録作成支援方法及びプログラム |
-
2005
- 2005-12-30 NO NO20056255A patent/NO325191B1/no not_active IP Right Cessation
-
2006
- 2006-11-22 JP JP2008548450A patent/JP2009522845A/ja active Pending
- 2006-11-22 WO PCT/NO2006/000423 patent/WO2007078200A1/en active Application Filing
- 2006-11-22 EP EP06824342.7A patent/EP1969592B1/en active Active
- 2006-11-22 CN CN2006800501600A patent/CN101351838B/zh not_active Expired - Fee Related
- 2006-11-29 US US11/564,589 patent/US8103507B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1343337A (zh) * | 1999-03-05 | 2002-04-03 | 佳能株式会社 | 数据库注释和获取 |
GB2351628A (en) * | 1999-04-14 | 2001-01-03 | Canon Kk | Image and sound processing apparatus |
CN1296257A (zh) * | 1999-11-10 | 2001-05-23 | 国际商业机器公司 | 数据档案系统中基于语义单元的自动索引和搜索方法及设备 |
CN1581951A (zh) * | 2003-08-15 | 2005-02-16 | 株式会社东芝 | 信息处理设备及其方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2009522845A (ja) | 2009-06-11 |
US8103507B2 (en) | 2012-01-24 |
WO2007078200A1 (en) | 2007-07-12 |
US20070156843A1 (en) | 2007-07-05 |
CN101351838A (zh) | 2009-01-21 |
EP1969592B1 (en) | 2017-01-04 |
EP1969592A4 (en) | 2012-03-28 |
EP1969592A1 (en) | 2008-09-17 |
NO325191B1 (no) | 2008-02-18 |
NO20056255L (no) | 2007-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101351838B (zh) | 后处理多媒体流使之可搜索的方法和系统 | |
US11197036B2 (en) | Multimedia stream analysis and retrieval | |
US10225625B2 (en) | Caption extraction and analysis | |
US7680853B2 (en) | Clickable snippets in audio/video search results | |
US7206303B2 (en) | Time ordered indexing of an information stream | |
US7761295B2 (en) | Computer-aided transcription system using pronounceable substitute text with a common cross-reference library | |
US8082142B2 (en) | Speech recognition method, speech recognition system and server thereof | |
CN101382937B (zh) | 基于语音识别的多媒体资源处理方法及其在线教学系统 | |
US20120131060A1 (en) | Systems and methods performing semantic analysis to facilitate audio information searches | |
Van Thong et al. | Speechbot: an experimental speech-based search engine for multimedia content on the web | |
US20110184721A1 (en) | Communicating Across Voice and Text Channels with Emotion Preservation | |
Lindsay et al. | MPEG-7 and MPEG-7 Audio'An Overview | |
US20170323016A1 (en) | Short Message Classification for Video Delivery Service and Normalization | |
CN101309327A (zh) | 语音聊天系统、信息处理装置、话语识别和关键字检测 | |
US20130080384A1 (en) | Systems and methods for extracting and processing intelligent structured data from media files | |
TWI270052B (en) | System for selecting audio content by using speech recognition and method therefor | |
GB2499021A (en) | Reporting the impact of broadcasts | |
JP5751627B2 (ja) | 音声データ書き起こし用webサイトシステム | |
CN103902531A (zh) | 汉语与外语自动实时语音翻译并标注字幕的音像录播方法 | |
CN103902529A (zh) | 外语自动实时标注中外文字幕音像录播方法 | |
WO2014195261A1 (en) | Synchronization between multimedia flows and social network threads | |
Maybury | News on demand: Introduction | |
CN103905743A (zh) | 汉语自动实时标注汉语字幕音像录播方法 | |
US20230017352A1 (en) | Systems and methods for phonetic-based natural language understanding | |
KR101606170B1 (ko) | Iptv 방송 시스템, 서버 및 발성목록 생성 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
ASS | Succession or assignment of patent right |
Owner name: CISCO SYSTEMS INTERNATIONAL BV Free format text: FORMER OWNER: TANDBERG TELECOM AS Effective date: 20120419 |
|
C41 | Transfer of patent application or patent right or utility model | ||
TR01 | Transfer of patent right |
Effective date of registration: 20120419 Address after: Swiss basil Patentee after: TANDBERG TELECOM A/S Address before: Norway Lv Sake Patentee before: TANDBERG TELECOM A/S |
|
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20110803 |