Google的Objectron怎样使用AI跟踪2D视频中的3D对象


今天就跟大家聊聊有关Google的Objectron怎样使用AI跟踪2D视频中的3D对象,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。伴随着2020年TensorFlow开发者峰会的拉开序幕,Google今天发布了一条名为Objectron的pipline,该pipline可在2D图像中发现物体并通过AI模型估算其姿势和大小。该公司表示,这对机器人技术,自动驾驶汽车,图像检索和增强现实-例如,它可以帮助工厂车间的机器人实时避免障碍。

跟踪3D对象是一个棘手的前景,特别是在处理有限的计算资源(例如智能手机片上系统)时,由于缺乏数据和多样性,当可用的唯一图像(通常是视频)为2D时计算对象的外观和形状会变得更加困难。

然后,由Objectron支持的Google团队开发了一个工具集,该工具集允许注释者使用分屏视图显示对象的3D边界框(即矩形边框),以显示2D视频帧。3D边界框在点云的上方叠加在其上方,注释器在3D视图中绘制了3D边界框,并通过查看2D视频帧中的投影来验证其位置,对于静态对象,他们只需要在单个帧中注释目标对象即可。使用AR会话数据中的地面真实摄像机姿势信息,将对象的位置定位到所有帧。
为了补充现实世界的数据以提高AI模型预测的准确性,该团队开发了一个引擎,将虚拟对象放置到包含AR会话数据的场景中,从而可以使用相机姿态,检测平面并进行估计。照明以生成与场景匹配的物理上可能的位置,从而生成高质量的合成数据,其渲染对象尊重场景的几何形状 香港云主机并无缝适合真实背景。在验证测试中,合成数据的准确性提高了约10%

更好的是,该团队表示,当前版本的Objectron型号足够轻,可以在旗舰移动设备上实时运行.LG V60 ThinQ,三星Galaxy S20 +和Sony Xperia 11等手机均配备了Adreno 650移动图形芯片,‍每秒能够处理约26帧

‍‍‍
‍Objectron在MediaPipe中可用,MediaPipe是用于构建由快速推理和媒体处理(例如视频解码)组成的跨平台AI管道的框架。可提供经过训练可识别鞋子和椅子的模型以及端到端演示应用程序。
该团队表示,未来计划与研究和开发社区共享其他解决方案,以刺激新的用例,应用程序和研究工作,此外,它还打算将Objectron模型扩展到更多类别的对象并进一步改进其对象设备上的性能。看完上述内容,你们对Google的Objectron怎样使用AI跟踪2D视频中的3D对象有进一步的了解吗?如果还想了解更多知识或者相关内容,请关注开发云行业资讯频道,感谢大家的支持。

相关推荐: 初学Python的技巧有哪些

这篇文章主要讲解了“初学Python的技巧有哪些”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“初学Python的技巧有哪些”吧!整理用户输入的问题在编程过程中极为常见。通常情况下,将字符转换为小写或大写就够了,…

免责声明:本站发布的图片视频文字,以转载和分享为主,文章观点不代表本站立场,本站不承担相关法律责任;如果涉及侵权请联系邮箱:360163164@qq.com举报,并提供相关证据,经查实将立刻删除涉嫌侵权内容。

Like (0)
Donate 微信扫一扫 微信扫一扫
Previous 09/12 22:50
Next 09/12 22:50

相关推荐