要想不被取代,决策权不能完全交给机器.doc

要想不被取代,决策权不能完全交给机器.doc

ID:28141779

大小:83.50 KB

页数:5页

时间:2018-12-08

要想不被取代,决策权不能完全交给机器.doc_第1页
要想不被取代,决策权不能完全交给机器.doc_第2页
要想不被取代,决策权不能完全交给机器.doc_第3页
要想不被取代,决策权不能完全交给机器.doc_第4页
要想不被取代,决策权不能完全交给机器.doc_第5页
资源描述:

《要想不被取代,决策权不能完全交给机器.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、要想不被取代,决策权不能完全交给机器  人类的力量是有限的,未来机器必将会代替目前人类所能做的任何事。到那个时候,人类又将何去何从。有人提出,要想不被器取代,我们必须有所防备。  史蒂芬·霍金曾说,“全面化人工智能可能意味着人类的终结。”他认为,机器可以自行启动,并且自动对自身进行重新设计,速率也会越来越快。而受到漫长的生物进化历程的限制,人类无法与之竞争,终将被取代。  霍金的预言是否会成真并不重要,重要的是他在提醒我们要对人工智能进行管控。在算法和数据高速发展的当下,社会生活的各方面都在悄无声息地与人工智能发生联系。诚然,人工智能给我们的生活带来了极大的便利,但完全依赖

2、人工智能,人类将如何自处?面对人工智能可能会带来的不利后果,我们又该做些什么来对其进行规避?  要想不被取代,决策权不能完全交给机器  人类的力量是有限的,未来机器必将会代替目前人类所能做的任何事。到那个时候,人类又将何去何从。有人提出,要想不被器取代,我们必须有所防备。  史蒂芬·霍金曾说,“全面化人工智能可能意味着人类的终结。”他认为,机器可以自行启动,并且自动对自身进行重新设计,速率也会越来越快。而受到漫长的生物进化历程的限制,人类无法与之竞争,终将被取代。  霍金的预言是否会成真并不重要,重要的是他在提醒我们要对人工智能进行管控。在算法和数据高速发展的当下,社会生活

3、的各方面都在悄无声息地与人工智能发生联系。诚然,人工智能给我们的生活带来了极大的便利,但完全依赖人工智能,人类将如何自处?面对人工智能可能会带来的不利后果,我们又该做些什么来对其进行规避?    日前安理律师事务所合伙人、互联网法律专家王新锐从理论和实操两个层面出发,提出了AI监管的思路,并着重强调了数据保护问题。  很多人觉得AI的法律和监管问题离我们还比较远,但我们在实务中其实已经接触到很多跟人工智能相关的法律问题,其中既有比较具有普遍意义但抽象的问题,比如产生纠纷时双方举证责任和赔偿责任的分配原则;也有比较具体、个性化的问题,比如用于训练算法的数据集的一些知识产权问题

4、。这些问题在具体的语境下,也许是有解的,也许是无解的,但如果把这些问题串在一起看,至少会观察到,人工智能技术对很多行业的影响越来越大,产生了新的利益和风险,也需要新的规则。  我把实务中遇到的AI法律问题分为两大类:算法和数据。按照人工智能产业的普遍看法,大数据是人工智能快速发展的基础。其中数据在法律上是一个很宏大的问题,并非人工智能领域所独有,其中对于个人信息和隐私保护很多国家都有相对成熟的立法和监管机制,中国在《网络安全法》出台后也进一步加强了对个人信息的保护;而数据权属问题在全球范围内也没有达成共识,争议很大;除此以外,数据的保密和公开以及跨境传输,也有一些复杂的规则

5、。而算法的监管问题在法律上则更为前沿,举个例子,欧盟制定了《通用数据保护条例》(GDPR),其中规定欧盟国家公民将有权要求“审查某项特定服务中如何做出特定算法决策”,这对算法影响非常大,具体如何落地,可能会引发监管机构和人工智能公司之间的冲突。  我认为在人工智能发展早期的很多因技术bug产生的问题并不是那么重要(尽管很容易被新闻媒体夸大),因为从长远来看,这些问题会随着技术发展自然而然地解决掉,监管和法律介入的必要性也不是很大。而重要的是大的框架,也就是人工智能中数据和算法的监管、立法等问题,这些不达成共识,行业发展到一定阶段就会受阻,影响公众对人工智能的信任和接受。  

6、事前、事中、事后监管  人工智能的边界到底哪里?我认为在可能出现重大危机或者影响人类利益的场景下,要实现对算法和数据的约束。对人工智能的监管思路,从实务或者理论架构来看有三个方面:  第一,对于事后结果的监管。虽然现在深度学习只能是机器学习的一小块,甚至连1%都没有,但是我们必须承认深度学习的推动作用。算法和数据有时候像个黑盒子,我们不确切的知道里面发生了什么事情,但是我们仍然可以对结果进行监管,或者通过严格责任追究开发者的法律责任。  第二,对于数据采集进行事中监管。比如美国建立了禁止数据采集的负面清单,中国人民银行在关于征信的相关法规中对于不同人群和机构能采集什么数据也

7、有规定。哪些数据不适合提供给人工智能公司,或不允许用于人工智能,也是需要研究的。  第三,在采集行为发生前,从根上避免一些不宜公开的数据被采集。比如,犯罪记录数据的采集。在很多国家,包括中国,犯罪记录既是个人信息,也是管理信息,超过一定犯罪期限内的数据不能随便公开,更不要说未成年人信息。  现在发展很快的人脸识别技术和指纹识别最大的区别在于,人脸识别不需要接触就可以实现,那么人脸识别数据采集环节怎么进行约束是值得考虑的问题。  决策权不能完全交给机器  人工智能在开发过程中需要考虑不同场景下的不同影响,并有所区别,

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。