您的位置:首页 >新闻资讯 > 专家声音

第二辑|人机大战引发专家热点讨论:用电脑取代人脑,有戏没戏?生命进化新形式,逆之顺之?

作者:中国机器人新闻中心  来源:新浪智库  发布时间:2016-3-28 12:04:52

 中国机器人新闻网讯:编者按:从3月9日到3月13日,谷歌人工智能程序AlphaGo以3:1的比分优势领先韩国围棋世界冠军。虽还有1局未战,结果已无悬念。在围棋这个被誉为“人类智慧的坚固堡垒”领域接连取得胜利,这无疑是人工智能研究的里程碑性事件。尽管仅是人工智能研究初级阶段综合科技实力的展现,人机大战对人工智能研究的未来的确提出了一系列启示。复旦发展研究院中美友好互信合作计划召集计算机科学、脑科学、神经科学、哲学以及从事人工智能开发与研究的专家进行了深入探讨,各抒己见,并对观点进行梳理,以飨大众。

【人机大战第一辑】为大家带来了各领域专家对中美人工智能研究的差距和中国应采取哪些措施追赶国际先进水平的讨论。【人机大战第二辑】将为大家带来进一步的讨论,电脑是否能够代替人脑?人工智能是否暗喻着人类生命进化的新形式?【人机大战第三辑】将为大家解读人工智能发展的下一步是什么?它对人类生命共同体未来的发展又提出了哪些涉及科学、伦理、乃至学哲学的问题?

1 让人工智能做价值判断,难;让多动因决策机器替代人,难上加难

王晓阳教授(复旦大学计算机学院院长)表示,目前阶段的人工智能还不能够完全取代人类。因为社会生活中,人类的动因不是唯一的,决策是复杂的,而机器还不能胜任。举个不恰当的例子,封建时期有些大臣与君主对弈时故意输棋,故意使棋局跌宕起伏、柳暗花明来取悦君主;而AlphaGo只知道赢棋,不知道如何输棋,如何输棋输得有意思。所以只知道赢棋的机器人从这一层面来说根本无法代替人类。

S教授(计算机专业教授,参与讨论者要求匿名)认为,目前的机器“智能”还远没有达到人类的“智能”水平,二者并不是一个概念,并且电脑不可能代替人脑。就目前而言,机器不具有“意识”,没有能力做价值判断或者道德判断,这始终与人类的所谓“智能”尤其是智慧相差甚远。尽管较以往而言,机器人在创造性方面有了很大的提高,现在部分机器人可以达到写诗作画等的水平,但实际上“创造性”是人类特有的特质,培养机器人这方面的特质,并无必要。

张文强副教授(复旦大学机器人智能实验室主任)认为电脑很难很难替代人脑。他以多年的研究经验告诉我们:学者越深入了解人工智能,就越知道人工智能存在诸多缺陷。现在全世界的人工智能都还处于一个非常低级的阶段。即使是最顶级的人工智能设备——AlphaGo,它也只是在某些方面——以规则为基础的计算和搜索能力领域,超过了人脑。张老师更深刻地指出,机器智能的开发者目前都不清楚大脑是如何思考、思维的,就更不可能使机器具备人脑思索、思维的方式。

徐英瑾副教授(复旦大学哲学学院)认为应打破对机器人的消极偏见。关于人们总是担忧机器人有一天会毁灭人类,这是一个很类似于外星人的问题。人们总是认为如果外星人和我们来交流的话,这并不是什么好事,他们跨过那么远的距离,究其动机,我认为他们迟早是会把人类毁灭的。人们对机器人也持有这种偏见。徐教授指出,我们先假设前提成立,即机器人的智能水平已经能够达到甚至超越人类的水平,那么我就提出这样的一个问题:他们为什么要灭了我们?在很大程度上,人类的智能也很高,我们人类的智能高到一定程度我们就会产生环保意识了,我们就知道不能消灭其他动物。为什么机器人不能产生和人类和平共处的想法呢?如果机器人也有宗教意识的话,为什么不会相信大乘佛教,对万物保持悲天悯人的态度呢?因此,我们大可不必总是对机器人持有消极的偏见。2倘若人工智能预示着生命进化新形式,那么硅基体取代碳基体也只是人类生命的另一种延续和智慧的拓展

刘嘉教授(北京师范大学心理学院院长)表示,当人类欣喜于计算机将自身从简单重复工作中解放出来的同时,也必须察觉自身优势空间的减少甚至预料到自身的消亡。人工智能开始取代人类智能的奇点,并不是要不可及——激进的观点认为在2050年的时候,就会开始;我的非常保守估计,是会在100年内发生。需要特别指出的是,我并不认为这种取代。相反,从生命进化过程中,物种的消亡和取代是符合自然进化的现象。若硅基生命更适合生存、更适合生命的进化,那么自然而然生命的连续体就会从碳基生命逐渐过渡到硅基生命。所以,人类并没有消亡,而是在另一种载体中,继续延续生命的进化,文明智慧的拓展。3阿西莫夫的“机器人工学三原则”何以是多余而不可行的?

在好莱坞的影片中,人工智能通常代表的是人类的终结者。正是基于这种人类中心主义的角度,所以一些人试图通过预先设定来防止人工智能的失控。王晓阳教授和刘嘉教授都提到了著名的阿西莫夫其科幻小说《我是机器人》中所提的“机器人工学三原则”:第一条:机器人不得危害人类。此外,不可因为疏忽危险的存在而使人类受害;第二条:机器人必须服从人类的命令,但命令违反第一条内容时,则不在此限;第三条:在不违反第一条和第二条的情况下,机器人必须保护自己。但是刘嘉教授认为其实这种顾虑或者制约既是不可行的也是多余的。

为什么说是不可行的呢?正如我们不知道人类究竟是如何在400万年的进化中,产生出自我意识的,我们也很难精细控制人工智能的进化步骤。这是因为进化通常是爆发性的,掌握人工智能的进化,远难于我们让氢弹爆炸产生的狂暴能力有序有控地释放出来。

为什么说是多余的呢?因为从进化的角度上讲,进化的关键在文明的传承和拓展,而人类智能的载体却有着先天的不足。我们的载体,即肉体是脆弱的,而计算机仅仅需要简单地更换一下零配件而已。因为载体的脆弱,个体积累起来的经验、知识、智慧就会随着这个载体的消亡,而消亡;而后来者只能根据前人留下的只言片语重新学习,重复前人的道路,因此人类的知识经验不容易被保留和传承,不容易被分享和吸纳。所以,我们为何一定要拘泥于肉体的形式而不主动去拥抱新生的存在形式呢?与其去防备人工智能这个“终结者”,还不如我们自身主动将智慧、情感注入到机器之中,在新的载体里进化、永生。

本期嘉宾:

刘嘉教授|北京师范大学心理学院院长

王晓阳教授|复旦大学计算机学院院长

张文强教授|复旦大学机器人智能实验室主任

徐英瑾副教授|复旦大学哲学学院

S教授|计算机专业教授,参与讨论者要求匿名

本期记者:Estelle, Lan, 余慧艳, Siwen, 王汪洁, 徐佳唯

本期文字、编辑:Lan

关键字:人机大战 专家热点 电脑 人脑

中国机器人新闻网版权声明:凡注明来源为“中国机器人新闻网:xxx(署名)”,除与中国机器人新闻网签署内容授权协议的网站外,其他任何网站或者单位未经允许禁止转载、使用,违者必究。如需使用,请与010-65001167联系;凡本网注明“来源:xxx(非中国机器人新闻网)”的作品,均转载与其他媒体,目的在于传播更多信息,但并不意味着中国机器人新闻网赞同其观点或证实其描述,文章内容仅供参考。其他媒体如需转载,请与稿件来源方联系,如产生任何问题与本网无关,想了解更多内容,请登录网站:http://www.crnews.com.cn


京ICP备12023756号/京公网安备11010502023804
中国机器人新闻网
新闻采编部:010-65000267 13501192779 E-mail:rbn@rbnews.com.cn 传真:010-65002772
中国机器人新闻网官方唯一指定交流群QQ:1319502388
地址:北京市朝阳区朝外延静西里2号华商大厦1007A室
版权所有 中国机器人新闻网© Copyright 2011 - 2013. All Rights Reserved. Power by I5tool.com