中国AI发展还有哪些问题?.doc

中国AI发展还有哪些问题?.doc

ID:27830227

大小:507.50 KB

页数:11页

时间:2018-12-06

中国AI发展还有哪些问题?.doc_第1页
中国AI发展还有哪些问题?.doc_第2页
中国AI发展还有哪些问题?.doc_第3页
中国AI发展还有哪些问题?.doc_第4页
中国AI发展还有哪些问题?.doc_第5页
资源描述:

《中国AI发展还有哪些问题?.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、中国AI发展还有哪些问题?  在世界机器人大会“青年创新创业专题论坛”上,清华大学人工智能研究院院长、中国科学院张钹院士作了题为《中国人工智能发展若干思考》的演讲,指出人工智能的应用场景问题是最大的问题,需要建立一个良好的“政产学研”合作机制。论坛上还成立“中关村智友天使学院”,由北京航空航天大学机器人研究所名誉所长王田苗教授及其团队领军。  小型会议更能把问题说的清楚、明白。  今年的世界机器人大会,清华大学人工智能研究院院长、中国科学院张钹院士没有出席上千人的主论坛,而是选择了一百人多的大会的分论坛“青年创新创业专题论坛”,发表了对中国AI的一些思考,题目就叫《中国人

2、工智能发展若干思考》。  中国AI发展还有哪些问题?  在世界机器人大会“青年创新创业专题论坛”上,清华大学人工智能研究院院长、中国科学院张钹院士作了题为《中国人工智能发展若干思考》的演讲,指出人工智能的应用场景问题是最大的问题,需要建立一个良好的“政产学研”合作机制。论坛上还成立“中关村智友天使学院”,由北京航空航天大学机器人研究所名誉所长王田苗教授及其团队领军。  小型会议更能把问题说的清楚、明白。  今年的世界机器人大会,清华大学人工智能研究院院长、中国科学院张钹院士没有出席上千人的主论坛,而是选择了一百人多的大会的分论坛“青年创新创业专题论坛”,发表了对中国AI的

3、一些思考,题目就叫《中国人工智能发展若干思考》。  中国AI发展还有哪些问题?  在世界机器人大会“青年创新创业专题论坛”上,清华大学人工智能研究院院长、中国科学院张钹院士作了题为《中国人工智能发展若干思考》的演讲,指出人工智能的应用场景问题是最大的问题,需要建立一个良好的“政产学研”合作机制。论坛上还成立“中关村智友天使学院”,由北京航空航天大学机器人研究所名誉所长王田苗教授及其团队领军。  小型会议更能把问题说的清楚、明白。  今年的世界机器人大会,清华大学人工智能研究院院长、中国科学院张钹院士没有出席上千人的主论坛,而是选择了一百人多的大会的分论坛“青年创新创业专题

4、论坛”,发表了对中国AI的一些思考,题目就叫《中国人工智能发展若干思考》。    中国AI发展还有哪些问题?  张钹院士认为,人工智能的应用场景是最大的问题,需要建立一个良好的“政产学研”合作机制,与实体经济结合才能创造价值,与当地实际结合选择合适的场景,才能实现可持续发展。另外,具体到深度学习,主要的问题就是不可解释性和鲁棒性。  除了张钹院士,参与这个分论坛还有北京市海淀区李长萍副区长,加拿大工程院院士、加拿大约克大学张丹教授,国家重点研发计划智能机器人专项组副组长、南开大学韩建达教授,北京航空航天大学机器人研究所名誉所长、IEEE机器人与自动化北京大区主席王田苗教授

5、,以及科沃斯、赛格威、大疆创新等企业相关负责人,“政产学研”领域的人员都到齐了。  在分论坛上,也出现了“政产学研”领域的合作——王田苗教授及其团队、海淀园创业服务中心、北航天汇孵化器、智友种子基金、雅瑞资本等联合发起“中关村智友天使学院”并落地海淀,目标是投资培育20个以上的专业领域头部创业项目或独角兽项目雏形。  张钹院士:AI的应用场景是最大的问题,不可解释性是深度学习的最重大问题  为什么张钹院士不想参加大规模的活动?  他在演讲时候解释,大会上大家都是讲机遇,讲形势如何好,因为大家在一线都已经认识到形势非常好。但是现在不能再停留在动员造势的层面上,必须切实的针对

6、这里头的问题进行一些细致的讨论,这样才有助于机器人的发展。  “形势好要把它变成现实,必须面临挑战。如果不去解决这些挑战性的问题,你这个大好形势也不可能产生。”    张钹院士  要解决哪些问题?  张钹院士认为人工智能也好、机器人也好,都要产业化。虽然对行业来说,人工智能的算法、数据、算力三个要素具备了,但最重要的因素——场景,是产业化最大的问题。  什么场景下面我们才可以做出来好的产业?张钹院士认为有五个方面,即场景必须具备五个属性:  掌握丰富的数据或知识  完全信息  确定性信息  静态与结构化环境  有限的领域或单一的任务  如果是属于这些性质的问题,机器都可以

7、做,而且最终是会完全代替人的,这种问题也叫“照章办事”。而对于动态变化环境、不完全信息、不确定性、多领域多任务,在短期内机器不可能完全代替人,所以这是目前人工智能能做的情况。  在解决场景问题之后,还得认识到机器学习存在可解释性、鲁棒性问题。以医疗健康为例,如果智能图像识别图片里的病人有癌症,但是它说不出道理,这是不可解释性问题;如果再加上些干扰,它就做出完全错误的判断,这就是鲁棒性问题。  用深度学习的方法做医学图像识别,怎么做到它的可解释性?必须加进去医生看图片的知识和经验。如果离开了医生看图片的知识和经验,仅仅依靠数据做

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。