欢迎来到天天文库
浏览记录
ID:28131496
大小:455.50 KB
页数:7页
时间:2018-12-08
《自动驾驶技术让你更自信的吃鸡.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库。
1、自动驾驶技术让你更自信的吃鸡 视线遮挡一直是自动驾驶很难攻克的问题。Occlusion,也就是视线遮挡,主要指因为建筑物、障碍物或是其他车辆遮挡视线,导致汽车无法做出最佳决策。在车辆转弯时候尤为常见。 大家在玩吃鸡的时候,都需要找遮挡物。子弹就好像自动驾驶车的雷达波束,只能到达直线以内的范围。障碍物后面的敌人就没办法打到了。 有什么办法能让你看穿遮挡物,做到提前预判呢?斯坦福大学和麻省理工各有各的方法,都可以用于自动驾驶。我们一起来看看。 非线性图像识别-斯坦福大学 斯坦福图像识别组这周刚刚在Nature发表了一篇论文“Confocalno
2、n-line-of-sightimagingbasedonthelight-conetransform”,提出非线性图像识别技术(Non-line-of-sightimaging) 首先,把雷达放在一个光子探测仪旁边。雷达发出波束,就像普通自动驾驶车一样。波束接触到墙面,就会散发出余光。假设图片里的右下角的兔子是我们需要探测到的行人。 普通自动驾驶车只会看波束返回时间,也就是到P点的时间,从而计算与自动驾驶车的距离。但是这次我们要看波束弹射出的余光。光子探测仪会捕捉这些余光。波束虽然没有直接照在那只兔子上,但余光会按照一定顺序弹在其他表面上。
3、 将所有余光集中在一起,排除那些直接反射回的光束,剩下的就是来自遮挡物的。由此就可以还原出目标物体的3D原型。现在的计算过程只需要1秒钟,但是还不够高效,现实驾驶环境需要司机在0.5秒内做出反应。 眼神会转弯的摄像头-麻省理工 看过了雷达技术,我们再来看看自动驾驶车另一大传感器:摄像头。不知大家有没有留心观察过墙角的光线变化。肉眼大概能看出有一些深浅的区别。 麻省理工MediaLab最新研究出一种颜色处理方式。通过处理图像,加强颜色差,不停变化颜色,就可以得到一连串的单向光线图像。 假设现在墙后面有两个行人,一个穿蓝色,一个穿红
4、色,蓝色衣服的人正在超过红色衣服的人。我们看到的成像就会是这样的。 原理很简单。被遮挡的人虽然我们无法直接看到,但是他们还是会反射一部分光。红色衣服的人和蓝色衣服的人会有重叠的地方。通过一段时间观察,绘制光线图,就可以分析出有几个物体在重叠。 这些发明除了自动驾驶也可用于其他领域,比如自然灾害后的搜救、医学成像、航天、安保监控等等。
此文档下载收益归作者所有