机器学习的决策渗透着偏见,能把决策权完全交给机器吗?.doc

机器学习的决策渗透着偏见,能把决策权完全交给机器吗?.doc

ID:28101142

大小:157.50 KB

页数:4页

时间:2018-12-08

机器学习的决策渗透着偏见,能把决策权完全交给机器吗?.doc_第1页
机器学习的决策渗透着偏见,能把决策权完全交给机器吗?.doc_第2页
机器学习的决策渗透着偏见,能把决策权完全交给机器吗?.doc_第3页
机器学习的决策渗透着偏见,能把决策权完全交给机器吗?.doc_第4页
资源描述:

《机器学习的决策渗透着偏见,能把决策权完全交给机器吗?.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、机器学习的决策渗透着偏见,能把决策权完全交给机器吗?  随着人工智能的发展,人类将会把越来越多的决策权交给机器。但是,从目前的一些事例看,基于机器学习的决策并非那么公正完美,相反,那些决策也渗透着偏见。近期的一份研究报告中,Google的一名研究科学家MorTIzHardt表示:“基于机器学习的决策是极为有用的,同时,它又会深刻影响我们的生活……尽管如此,在如何避免机器学习可能产生的偏见方面,我们仍然缺乏一种可靠的方法。”  本月,这份报告提交给了巴塞罗那举办的NIPS大会(NIPS,神经信息处理系统)。与此同时,其它人也提交了一些相关的论文。这证明此问题正在受到更多人的重

2、视。芝加哥丰田技术学院的计算机科学家NathanSrebro是上述研究报告的作者之一。他向卫报网站介绍了研究员们使用的测试方法。    Srebro说,这项测试是针对机器学习系统的。通过分析大量的数据,机器学习系统能够对未来做出预测。问题在于,计算机的决策规则并非实现事先编写好的,而是计算机自己学会的,因此,决策背后的逻辑通常是不可知的。即使编写算法的程序员也未必能够搞清楚。  “算法是如此复杂,即使我们能够进入其内部,搞懂其内在原理也是几乎不可能的,”Srebro说,“机器学习的全部要点就是构建魔法黑箱子。”  为此,Srebro与同事们设计了一种测试方法。他们只检测进入

3、算法的数据以及算法给出的决策。“我们的方法并不关注机器学习算法的内部,”Srebro说,“我们只关注它做出了什么决策。”    这个方法基于一个基本原则:当算法做出与某人相关的决策时,它只能揭示数据提供的内容,而不能暴露个人的种族或者性别。例如,在偿还银行债务方面,男性拖欠债务的比例远远超过女性,那么,当数据库里的某人拖欠债务,你可能会推论,那很可能是一个男人。但是,如果你推断说,银行的最佳策略是拒绝所有男性的贷款请求,那么,该决策就精确定位了个人的性别。“这可以视为不合理的歧视,”Srebro说。  针对这个方法,有人提出了质疑。他们认为,这等于是绕过了机器算法的决策过程

4、,使其缺乏任何的透明性。西英格兰的机器人道德学教授AlanWinfield说,“设想一下,如果某个案件涉及到机器算法的决策,法庭将需要专家证人解释算法做出决策的理由。”  不过,他也承认,如果要求机器决策的绝对透明度,那肯定会引起深度学习社群的强烈抗议。谢菲尔德大学机器人和人工智能学教授NoelSharkey同意这种观点。“如果你要找出输油管道的最佳方案,机器学习是个很好的选择,但是,在我们深入了解算法如何产生偏见之前,我会很在意它做出一些影响人们生活的决策。”

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。