AI与VR

今天看王垠的博客,关于人工智能,首先这篇博文解释了深度学习的原理,就是类似于统计数据拟合成一个函数。然后
我看自动驾驶技术这篇文章认为目前的深度学习算法还无法实现“认知”,主要论点如下:

'
然而自动车的“头脑”(电脑),是没有认知能力的,所以就算收集到了大量的数据,它仍然不知道那东西是什么,它们之间是什么关系。电脑没有这些“常识”,所以它无法为人做出正确的判断。在危急的关头,它很可能会做出危及乘客安全的决定。“认知”是一个根本性的问题,AI领域至今没有解决它,甚至根本没有动手去研究它。
自动车使用的所谓“机器学习”的技术,跟人类的“学习”,完全是两回事。举个例子,一个小孩从来没见过猫,你只需要给她一只猫,告诉他这是“猫咪”。下一次,当她见到不管什么颜色的猫,不管它摆出什么姿势,都知道这是“猫咪”。现在的电脑,认知能力其实比小孩子,甚至其它动物都差很多。你先让电脑分析上百万张猫的照片,各种颜色,各种姿势,各种角度,拿一只猫摆在它的摄像头面前,让它看整整一年…… 最后它仍然不理解猫是什么,不能准确的判断一个东西是否是猫。
'

于是我在想为什么人可以准确识别,人不也是根据一个物体的形状特征来判断是什么的吗? 我首先想到人有两只眼睛,产生的图像是立体的,而谷歌的汽车采集的图像是二维的,但我闭了自己一只眼睛后,仍然可以识别身边的物体,所以问题不在于有几个摄像头。恰好最近在玩three.js, 看了几个demo都非常VR。我顿时灵光一现:AI与VR是两个相反的领域:

  • AI是让机器识别输入
  • VR是让人类识别不了输出

所以我认为这两个领域应该一起研究:

  • 通过VR技术帮助AI:目前VR渲染3D模型很逼真,而AI识别物体不够准确,原因可能是内部的模型没有用3D的,可以参考渲染图像的过程:渲染过程先是投影,再加上光线;识别图像则反过来,先去掉光线,再猜测是哪个模型的投影。
  • 通过AI技术帮助VR:目前VR的模型都是手工用各种软件建的,所以如果一个AI通过大量的训练已经对一个物体识别很准确了,则可以让这个AI自动画出一个模型出来,可以人为输入一些参数,也可以使用随机数,或两者结合。

另外人有五感官,视,听,嗅,味,触,而目前电脑只有两个,电脑不吃东西,所以味觉应该不可能。嗅觉的输入可以通过气味传感器实现(导致警犬失业),输出则较难实现。触觉实际上包含了很多:比如探测物体的硬度,粗糙程度,环境的温湿度,这些需要不同的传感器。

posted @ 2017-04-12 22:40  декодер  阅读(423)  评论(0编辑  收藏  举报