【专家视角】李德毅院士:深度学习具有四大局限性,它不是人工智能的重点

发布时间:2020-08-17 16:06 点击数:91

随着社会经济的发展,人工智能的核心发展要素已经完备,深度学习等技术正在不断突破与迅猛提升。但就在前段时间,麻省理工大学(MIT)、巴西利亚大学以及安德伍德国际学院的研究人员共同发表了一篇研究论文,向世人发出警告:深度学习正在接近计算极限,深度学习的进展非常依赖计算的增长,必须转变现有技术,通过改变现有技术或尚未发现的新方法来提高计算效率,才能更有效地使用深度学习。

中国工程院院士李德毅此前在中国机器人峰会上指出,“深度学习有四大局限性:第一,太多的学习参数具有随意性,重复他的程序重复不了,程序本来是重新起来该怎么样就怎么样,现在不是了;第二,不能保证算法的收敛性;第三,缺少反馈机制;第四,大量的案例不具有累积性,即实践上的累积性他没有。在这样的情况下,深度学习不是人工智能的重点。”


中国工程院院士李德毅

深度学习可以通过对大量已知样本的训练,制作自己的样本,这是深度学习的特点,同样也是其痛点。虽然样本数据量越大,建立模型的准确度就越高,但大量样本数据的学习,不仅对深度学习的能力提出了很高的要求,更对样本有具体要求。正如李德毅院士所说,过多的样本参数具有随意性,其他程序也无法重复。这也会进一步导致人工智能的成本提高。

此外,深度学习的过程中,机器本身无法理解数据,只是大量模仿数据集中的内容,因此,若数据集中存在隐藏的偏见,则无法被发现,也不会被否定,不存在反馈机制,最终可能导致生成的结果并不客观。

例如人工智能在深度学习后,对女性、少数族裔、非主流文化群体产生“歧视”,在图片识别领域,女性常常与做家务、待在厨房等场景联系在一起;在人脸识别领域,微软、IBM、Face++的相关系统对白人男性的识别正确率均高于99%,但测试肤色较深的黑人女性的结果是,错误率在47%。

当深度学习站在全球人工智能的风口,卷积神经网络普遍用于点云图样式,感知架构的自学习。李德毅院士指出,虽然AlphaGo的成功用了深度卷积神经网络,但无论是深度学习、卷积神经网络还是其他的神经网络学习方法,都不能是人工智能的终结者。人都是个性的,而AlphaGo程序不是,我们需要张三李四,世界上并不存在一个人类,人类是我们人的总称而已。李德毅院士团队此前另辟蹊径,把卷积神经网络用于形式化之后的驾驶态势图,大大减少了数据量,简化了实效。

那么,人工智能的重点究竟是什么呢?第七届中国机器人峰会将汇聚众多机器人领域顶级专家学者、企业家、投资人,开展多渠道、多层次的技术交流和产业合作,多方位、多角度交流探索机器人、人工智能、工业互联网未来发展蓝图及应用,共推产业发展,举办更加深入的产业对接活动,共推产业发展,为机器人行业提供创新大平台!

来源:汽车评价研究院


免责声明:
本文系网络转载,版权归原作者所有。
如涉及作品版权问题,请与我们联系,我们将在第一时间协商版权问题或删除内容!
内容为作者个人观点,并不代表本网站赞同其观点和对其真实性负责。
x