美国Stanford大学计算机系的副教授 Andrew Ng开发出新的机器视觉算法,仅使用一个摄像头就获得物体的距离信息,不同于以往的视觉算法需要立体视觉来获得距离信息。这将大大简化机器人的传感器系统。
除了像在2003年的《矩阵革命》这种科幻电影中的,可怕的乌贼状机器人以令人难以置信的灵活运动外,大多数的机器人都非常笨拙无法越过障碍物快速行动。事实差不多如此因为他们很难用图像判断他们所“看见”的障碍物在前方多远处。这周,斯坦福的计算机科学家将演示一套机器视觉算法,这套算法能让机器人从一幅静止的图像中判断障碍物的大概距离。
“许多人都说从一幅单目图像来进行深度估计是不可能的,”计算机科学副教授Andrew Ng说,“我认为这项研究表明在实际问题中,单目深度估计不仅能够正常工作而且还非常有用。”Andrew Ng将在Vancouver 12月5-8日的Neural Information Processing Systems会议上演讲他的研究论文。
随着内部传感器阵列大量的投入,机器人具有了足够的导航能力。去年十月在DARPA超级挑战中斯坦福的机器人小汽车斯坦利(Stanley)能够在沙漠上行驶,使用激光雷达和摄相头扫描前方道路。利用Ng和他的学生们的研究制造的机器人要不太小了不能带太多传感器要不因为只用一个摄像头进行导航必须造价便宜。实际上,使用简化版的算法,Ng已经能使无线电控制的小车在穿过混乱的丛林地带被撞翻前自动行驶几分钟。
为了使机器人有深度感知的能力,Ng和他的研究生Ashutosh Saxena及Sung H.
Chung设计了软件使之能够学习发现静态图像中特定深度的信号。这种信号包括纹理的变化(接近的清晰显示的表面),边缘(收缩的线条,就像路的两边,指示增加的距离)和朦胧感(朦胧感的物体好像更远了)。为了尽可能彻底地分析这些信号,软件将图像分成几个部分对他们同时进行各别分析和涉及邻近部分的分析。这使得软件能够推测出图像中各个物体之间的关系。软件同样要在不同放大水平下寻找信号来确保其没有丢失详细资料或偏离主流趋势-那真是为了一棵树丢掉森林。
使用斯坦福算法,在室内和室外机器人能以平均35的错误率判断距离-也就是说,实际在30英尺远的树被感知为20到40英尺之间。每小时走20英里通过视频帧每秒进行10次距离判断的机器人即使在这些都不确定时也有充分的时间来调整它的路线。Ng指出相比传统的立体视觉算法——使用两个摄像头和三角测量来推断深度,新的软件能够可靠的探测5到10倍距离远。
“使视觉深度感知适用于长距离这个难点已成为实现机器人快速移动和导航的主要障碍,” Ng说到。“我想造一架能穿越森林飞行的飞机,绕过周围的树在树荫底下飞行。”当然,这又令人想起了另一个电影画面:在Return of the Jedi中Ewok星球上飞机穿越森林追赶的场景。Ng想让这个主意超越幻想领域使之成为现实。