当 VR 遇上“人工智能”,我tm直接以高达形态出击

VR这个概念从出现发展到现在已经比较成熟了,但现在还面临这一个比较大的问题,就是体感交互。支持体感交互的VR设备能大大提高虚拟现实体验,不过像HTC Vive这种采用手柄交互的方式,并不能带来更接近现实的操作体验。我认为未来采用类似Leap Motion的手势识别技术才是王道。

不过,这种技术并未发展成熟,准确率和精细度都有待提高,目前也有不少技术公司、机构等朝着这个方向努力,近日也有消息透露,普渡大学C Design Lab实验室研发出了一个名为“DeepHand”的新系统。

这个系统专为手势识别技术而打造,其特点是使用了卷积神经网络来模仿人类大脑,可进行深度学习,理解手部关节和运动的变化,提高识别的准确率和精细度。

普渡大学的Karthik Ramani教授表示:“我们把它称为空间用户界面,因为你是在空间中与电脑进行交互,而不是通过触摸屏和键盘。如果用户想从虚拟桌面上捡起物品,驾驶虚拟汽车的话,很明显手部是关键。我们可以实时监测到你的手部位置,你的手指位置,以及你的手部和手指所有的动作。”

DeepHand采用类似Leap Motion的双摄像头深度感应相机来捕捉用户的手部,配备了专门的算法来解释手部运动,研究人员通过250万个手部姿势和形状组合来“训练”DeepHand。手指关节的位置被指定为“特征向量”,可以快速检索,然后,系统会从数据库中挑选一个最合适的数据来呈现给相机。

DeepHand可以识别出手部的关节角度,并通过数字组合来表达出这些角度的变化和形状组合。需要注意的是,这个系统需要“训练”,简单点说就是需要对各种手势动作进行录入,动作录入越多,识别的准确率则越高。

手势识别技术已越来越成熟,这其实是一种基于计算机视觉动作捕捉的技术,相比使用手柄交互其操作更接近真实体验,也无需像诺亦腾那种设备需要佩戴手套,使用起来更加自然。

不足的是,这种技术需要庞大的程序计算量,对硬件设备有一定配置要求,同时受外界环境影响大,比如环境光线昏暗、背景杂乱、有遮挡物等都无法很好的完成动作捕捉。

但这些问题迟早会被解决,比如光线昏暗无法捕捉的问题,使用红外夜视技术也许是个不错的解决方案。因此,在日后这种技术很可能会延伸到腿部甚至整个身体的识别以及交互。

免费分享一些我整理的人工智能学习资料给大家,整理了很久,非常全面。包括一些人工智能基础入门视频+AI常用框架实战视频、图像识别、OpenCV、NLQ、YOLO、机器学习、pytorch、计算机视觉、深度学习与神经网络等视频、课件源码、国内外知名精华资源、AI热门论文、行业报告等。

为了更好的系统学习AI,推荐大家收藏一份。

下面是部分截图,文末附免费下载方式。

一、人工智能免费视频课程和项目

二、人工智能必读书籍

三、人工智能论文合集

四、人工智能行业报告

学好人工智能,要多看书,多动手,多实践,要想提高自己的水平,一定要学会沉下心来慢慢的系统学习,最终才能有所收获。

点击下方名片,扫码免费下载文中资料。

猜你喜欢

转载自blog.csdn.net/gu1857035894/article/details/125935235
VR