光流图检测模型为:采用各个第二样本图像和每个第二样本图像的事件检测结果所训练得到的模型,且每个第二样本图像为一帧光流图。需要说明的是,下面对上述步骤f23的具体实现方式进行举例说明。一种具体实现方式中,上述步骤f23可以包括如下步骤f231-f232:f231:根据场景图像检测模型和光流图检测模型的权重,计算场景图像检测模型输出的检测结果和场景图像检测模型的权重的乘积,并计算光流图检测模型输出的检测结果与光流图检测模型的权重的第二乘积;f232:计算乘积和第二乘积的和值,基于和值,确定关于目标防护舱的事件监测结果。在本实现方式中,当场景图像检测模型输出的检测结果和光流图检测模型输出的检测结果为:正常事件概率以及每种类型的异常事件的概率时,电子设备可以根据预设的场景图像检测模型的权重,计算场景图像检测模型输出的正常事件概率以及每种类型的异常事件的概率分别与该权重的乘积,作为正常事件以及每种类型的异常事件的乘积;并根据预设的光流图检测模型的权重,计算光路途检测模型输出的正常事件概率以及每种类型的异常事件的概率分别与该权重的乘积,作为正常事件以及每种类型的异常事件的第二乘积。进而,计算乘积和第二乘积的和值。语音关键事件检测在哪些地区被大力推广?浙江无限语音关键事件检测介绍
确定关于目标防护舱的事件检测结果;其中,场景图像检测模型为:采用各个样本图像组和每个样本图像组的事件检测结果所训练得到的模型,且每一样本图像组中的图像与待分析图像的图像数量相同,各个样本图像组中的图像为:所采集到的关于防护舱的图像。可选的,一种具体实现方式中,上述装置包括:光流图确定模块,用于每当获取到一帧图像时,利用该帧图像和该帧图像的前一帧图像,得到该帧图像对应的光流图;则在本实现方式中,上述图像确定模块630包括:第二图像确定子模块,用于将至少包含光流图在内的第二类图像确定为待分析图像,其中,第二类图像中各个图像的类型均为:基于每两帧连续的关于目标防护舱且包括目标对象的图像获取的光流图,光流图为当前帧图像对应的光流图。可选的,一种具体实现方式中,第二类图像为:包括光流图和光流图之前的连续n帧光流图的多张图像;其中,n为正整数;或,第二类图像为:光流图。可选的,一种具体实现方式中,上述结果确定模块640包括:第二图像检测子模块,用于将待分析图像输入到预设的光流图检测模型中,得到光流图检测模型输出的检测结果;第二结果确定子模块,用于基于光流图检测模型输出的检测结果。福建自主可控语音关键事件检测特征语音关键事件检测在音频编辑和音频处理领域也有应用,如自动剪辑音频中的特定部分或去除背景噪音等。
监控人员往往需要花费很久的时间才能在监控视频中准确定位到异常事件所对应的视频内容。这样,为了减少监控人员在查看视频时所耗费的时间,当事件检测结果为关于发生异常事件且所发生异常事件类型的结果时,电子设备可以采取多种方式对异常事件所发生的时间进行标记。一种具体实现方式中,上述本发明实施例提供的一种事件检测方法还可以包括如下步骤b1:步骤b1:对当前帧图像进行截图,并为所得到的截图添加标签,其中,标签包括:采集当前帧图像的采集时间和所发生异常事件类型对应的类型标签。当电子设备确定当前时刻目标防护舱内出现的异常事件的类型后,便可以对当前帧图像进行截图,并通过标签对所得到的截图进行标记,该标签中包括:当前时刻的时间信息和当前时刻目标防护舱内出现的异常事件的类型的类型标签。这样,当监控人员需要查看目标防护舱的监控视频中与该异常事件对应的视频内容时,便可以直接通过异常事件的类型标签,确定该事件类型对应的截图的标签,进而,根据该标签中的时间信息,确定该异常事件发生的时间。进一步的,监控人员便可以根据所确定的时间,直接调取与该时间对应的监控视频的视频内容。这样。
光流图检测模型为:采用各个第二样本图像组和每个第二样本图像组的事件检测结果所训练得到的模型,且每一第二样本图像组中的图像与待分析图像的图像数量相同,各个第二样本图像组中的图像为:关于防护舱的光流图。具体的,当待分析图像为:包括光流图和光流图之前的连续n帧光流图的多张图像,则光流图检测模型为:采用各个第二样本图像组和每个第二样本图像组的事件检测结果所训练得到的模型,且每一第二样本图像组中包括n+1帧光流图。其中,针对至少一个防护舱,在该防护舱中发生各类事件时,获取n+1帧关于该防护舱的光流图,这样,该n+1帧光流图便可以组成一个第二样本图像组,并进一步确定该第二样本图像组的事件检测结果为:获取该n+1帧光流图时,该防护舱内发生的事件类型。具体的,当待分析图像为:光流图,则光流图检测模型为:采用各个第二样本图像和每个第二样本图像的事件检测结果所训练得到的模型,且每个第二样本图像为一帧光流图。其中,针对至少一个防护舱,在该防护舱中发生各类事件时,获取一帧关于该防护舱的光流图,并将获取该光流图时,该防护舱内发生的事件类型作为该光流图的事件检测结果,这样。语音关键事件检测技术可以帮助我们更好地理解人类的语言和交流方式。
确定在时刻t0目标人物所处的位置信息,以及在时刻t1目标人物所处的位置信息。根据两个时刻目标人物所处的位置信息,可以获取目标人物的运动轨迹。根据目标人物的运动轨迹,可以获知目标人物所处的理论位置范围。在确定了目标人物的理论位置范围之后,控制器12可以从m个第二摄像头14采集到的实时图像中,识别出目标人物游泳时的动作姿势,进而获取目标人物的泳姿信息。在实际应用中,游泳者在游泳时,其对应的泳姿可以为蝶泳、蛙泳、仰泳、自由泳等。无论哪种泳姿,都存在一定的规律性。在具体实施中,控制器12可以采用现有的图像识别方法来识别目标人物游泳时的动作姿势。控制器12可以将识别出的动作姿势与现有的泳姿信息库进行比对,从而获知目标人物的泳姿信息。具体的比对过程也可以采用现有的匹配算法,本实用新型实施例不做赘述。在具体实施中,可以预先根据经验值,设置相应的目标频率值。例如,根据大数据统计分析,正常情况下,游泳者沉浮一次间隔的时间为15s,也即1分钟游泳者的沉浮频率为4次。此时,可以设置目标频率值为1分钟4次。可以理解的是,目标频率值也可以根据实际的应用场景进行设定,并不仅限于本实用新型上述实施例中提供的示例。语音关键事件检测在国际上的运用如何?安徽无限语音关键事件检测服务标准
语音关键事件检测算法通常基于机器学习和深度学习技术,通过训练模型来识别不同的声音模式。浙江无限语音关键事件检测介绍
语音关键事件检测JLayer和LayerUI结合起来可以检测任意区域上发生的事件(包括嵌套的子组件),这些类共同提供了4个方法来检测事件。·publicvoidsetLayerEventMask(longlayerEventMask)调用这个JLayer方法时必须使用位掩码AWTEvent常量选择它检测到的事件类型,如:setLayerEventMask(|);可以检测到按键和焦点改变事件。·publicvoidinstallUI(JComponentc)这个LayerUI方法通常放在setLayerEventMask()方法之前,这个方法类的代码首先调用超类方法((c);),然后是引用JLayer的JComponent参数,使用setLayerEventMask():((JLayer)c).setLayerEventMask();返回的结果。·publicvoiduninstallUI(JComponentc)这个LayerUI方法放在没有参数的setLayerEventMask()方法后,这个方法内的代码首先调用超类方法((c);),然后是引用JLayer的JComponent参数,使用setLayerEventMask():((JLayer)c).setLayerEventMask(0);返回的结果。·publicvoideventDispatched(AWTEvente,Jlayerl)只要前面注册的事件发生了,就会调用这个LayerUI方法,在这个方法中插入的代码负责响应事件,并恰当地更新层,更新了不同的绘制属性(如颜色)后,通过传递给这个方法的JLayer参数调用repaint()方法重新绘制。浙江无限语音关键事件检测介绍