密歇根大学研发新软件 提升无人驾驶汽车的计算机视觉能力

  • 时间:
  • 浏览:1
  • 来源:UU直播网-UU快3直播网

核心提示:据外媒报道,在进行探测“极度虚假”视频的项目中,密歇根大学(University of Michigan)的工程师研发出一种生活软件,可利用视频片段提高计算机追踪物体的能力,但会 计算机的物体追踪能力平均提高了11%。

(图片来源:密歇根大学官网)

盖世汽车讯 据外媒报道,在进行探测“极度虚假”视频的项目中,密歇根大学(University of Michigan)的工程师研发出一种生活软件,可利用视频片段提高计算机追踪物体的能力,但会 计算机的物体追踪能力平均提高了11%。该软件名为BubbleNets,可为人类选泽出最好的视频帧,以便进行人工注射。除了不能帮助训练算法识别出被篡改的视频片段,该软件还不能提升无人驾驶汽车、无人机、监控和家庭机器人等新兴领域内的计算机视觉能力。

目前分析视频片段的软件都可不还里能依靠人工在视频中标记物体,如标记人、动物和车辆。后来,“视频物体分割”算法将通过视频,跟踪此类物体的边界。

如今的先进“高度学习”应用守护进程可不还里能人类只标出单个视频帧,而通常呈现给人类的视频帧全部都有视频的第一帧,在很少的情形下,该视频帧会是最佳选泽。但会 截至目前,也没能自动化的办法选出更好的视频帧。

但会 ,当美国国防部研究计划局(DARPA)要求不能自动选出更好的视频帧,密歇根大学研究团队对此表示很怀疑,认为无法实现,原因分析分析该软件都真不知道亲戚亲戚大伙儿儿可不还里能跟踪的是哪些地方,缘何不能推荐视频帧呢?

但会 ,依靠高度学习技术,密歇根大学研究人员发现不让选泽出最佳的原因分析分析有注释的视频帧,算法就可不还里能做到你这一 点。亲戚大伙儿儿所面临的挑战是创造足够多的“训练”数据,让算法不能从小量的例子中得出本人的结论。

研究人员研究了50个视频,此类视频中每一帧都原因分析分析有注释。原因分析分析研究人员提问:“每个视频中哪一帧的注释最好”,亲戚大伙儿儿只会得到50个训练数据。相反,利用“BubbleNets”软件,研究人员可不还里能一次比较另有有还还有一个 多视频帧,该软件可不还里能预测,原因分析分析选泽某一帧进行人工注释,可不还里能让视频分割处理软件更贴近物体的边界,从而可为亲戚大伙儿儿提供近74.10万对视频帧,以训练该算法。

没能确切地说明BubbleNets在原因分析分析有注释的视频帧中在寻找哪些地方,但会 测试显示该软件更喜欢的视频帧是:

1、  全部都有有点靠近视频开头或结尾的视频帧;

2、  看起来与视频中某些帧类似的视频帧;

3、  显示了物体清晰图像的视频帧。

目前,BubbleNets原因分析分析应用于DARPA的多大学媒体取证项目,DARPA为了识别虚假的宣传视频,可不还里能在经过篡改的视频上训练其本人的算法。BubbleNets可帮助某些软件自动从视频上删除物体,以创建培训数据。

但会 ,BubbleNets也可用于某些机器人和计算机视觉任务。类似,未来的家居机器人没能解房子的布局和物品,该机器人可不还里能不让能向主人展示一系列含高未注释物体的视频帧。

无人驾驶汽车和无人机等配备的计算机视觉算法可不还里能在无人工输入的情形下运行,在此类情形下,该软件会从视频片段中筛选出不认识的物体,但会 当该软件发现有难题的视频片段时,可为人类选泽最佳视频帧,以帮助解释难题。