人工智能失误了怎么办?该如何补救?.doc

人工智能失误了怎么办?该如何补救?.doc

ID:27839497

大小:109.50 KB

页数:5页

时间:2018-12-06

人工智能失误了怎么办?该如何补救?.doc_第1页
人工智能失误了怎么办?该如何补救?.doc_第2页
人工智能失误了怎么办?该如何补救?.doc_第3页
人工智能失误了怎么办?该如何补救?.doc_第4页
人工智能失误了怎么办?该如何补救?.doc_第5页
资源描述:

《人工智能失误了怎么办?该如何补救?.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、人工智能失误了怎么办?该如何补救?  在智能识别的过程当中,即便是性能最为优越的AI也会因为系统缺陷而陷入迷局。著名学者、畅销书Usandthem:TheScienceofIdentity的作者大卫·贝雷比就表示,人工智能是可以被“欺骗”的,因为它们的内置推理机制都是呈模型化状态分布的。所以从这个角度来说,只要符合既定模型中的验证条件,一些原本不符合要求的样本也可能会被系统读取和识别。这就是说,在智能化推理的过程当中,人工智能也会出现“失误”,而如何将这些失误降到最低,就需要研究人员通过多种渠道来改善识别系统了。  关于人工智能在推理方面的错误

2、,一个由美国高等学府和社会科研机构组成的团队做了一个非常有趣的实验。工作人员先按照一定的标准开发出了一套可以识别图像文字的神经网络模型,然后他们将经过特殊化处理的图片录入到这个模型当中去,命令人工智能系统对该图片进行识别。如图所示,以人类的肉眼来看,这两张图片应该是不存在特征差异的。  人工智能失误了怎么办?该如何补救?  在智能识别的过程当中,即便是性能最为优越的AI也会因为系统缺陷而陷入迷局。著名学者、畅销书Usandthem:TheScienceofIdentity的作者大卫·贝雷比就表示,人工智能是可以被“欺骗”的,因为它们的内置推理机

3、制都是呈模型化状态分布的。所以从这个角度来说,只要符合既定模型中的验证条件,一些原本不符合要求的样本也可能会被系统读取和识别。这就是说,在智能化推理的过程当中,人工智能也会出现“失误”,而如何将这些失误降到最低,就需要研究人员通过多种渠道来改善识别系统了。  关于人工智能在推理方面的错误,一个由美国高等学府和社会科研机构组成的团队做了一个非常有趣的实验。工作人员先按照一定的标准开发出了一套可以识别图像文字的神经网络模型,然后他们将经过特殊化处理的图片录入到这个模型当中去,命令人工智能系统对该图片进行识别。如图所示,以人类的肉眼来看,这两张图片应

4、该是不存在特征差异的。    但是对于这一套配备了特殊神经网络的人工智能来说,最终得到的结果却是令人大跌眼镜的:在本次测试当中,AI系统将左边的图片认定为”狗”,而右边的图像则被判定为“鸵鸟”。实际上,这两张图片之间仅仅是存在细微的像素差异,而镜像本体和所使用的拍摄器材,都是完全一致的。这就是说,在本次实验当中,图片像素的差异是误导人工智能进行错误推理的直接原因。  与此类似,美国怀俄明大学计算机系助理教授杰夫·克鲁联合另外两名研究者——阮昂和杰森·约辛斯基,共同论著了一篇关于人工智能的文章。在这篇名为“人工智能其实很好骗”的文章当中,克鲁举例

5、表示,他们共同研发了一套用于识别图像的智能系统。当研究者将一张呈条状波浪形分布、主体为黄绿两种颜色的图片交给这套系统识别时,他们发现,这套识别系统用99.6%的确定性,将这张“毫无主题的水彩画”认作了“海星”;而在面对另一张布满杂乱混合斑点的图片时,该AI系统再一次犯错——它将图示当中的主体推论为“豹”,并对真实性做出了接近于100%的保证。  很显然,“小狗实验”和克鲁主导的图像识别实验,都向人们反映出了这样一个现象——人工智能在进行分析推理的过程当中,也会受到来自模型缺陷的干扰。比如在克鲁的实验当中,研究人员设定的识别模型,在样本定义上必然

6、是存在不足的。对此,另一位人工智能学者、来自普林斯顿大学的索伦·巴洛卡斯就认为,克鲁的模型当中没有设定“生命”和“非生命”的限定,这就使得人工智能无法对一个样本进行有效区分。  巴洛卡斯解释说:“就以那张布满杂乱斑点的图像来说,假如克鲁团队关于识别模型的设定限定了‘很多斑点=豹’这一规则,那么当人们将这张图片录入到该模型当中时,这个识别系统就会因为从图片上检测出很多斑点,进而做出‘此图示为豹’的结论。”  可以看到,人工智能的逻辑推理是带有强烈的程式化意味的。由于既定模型的局限性,即便是性能最为优越的AI系统也会在判定时出现偏差。而

7、在生活当中,这一种推理机制带来的缺陷,也很可能会为人们带来极大的不便或者其他隐患。比如说在反入侵智能识别系统当中,一些不怀好意的人就可以通过识别模型的漏洞,给自己伪装上适配于该模型的装置,然后就可以顺利通过智能机关的检验。所以说,如何利用规则,回避类似漏洞就成了研究者们需要重点关注的话题。  显然,在巴洛卡斯的话语当中,我们已经能剥离出部分解决人工智能因何被骗的诱导因素了。按照他的说法,AI系统之所以能针对未知事物进行判定推论,内置在这一系统中的神经网络起到了关键性作用。而一旦这个网络出现部分可被利用的漏洞,那么当有“非正确的适应性样本”进入检

8、验阶段时,这个错误的样本就会被接受并解读出来。  比如说对于某一个神经识别网络,我们设定以下规则:  (1)穿红色衣服的学生每人得到1个苹果  (2)

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。