读懂中国|曾毅:人类不能只做简单的工作,要去探索未知世界

南方+ 记者

“若干年后,人工智能通过不断强化学习,开始合乎人类的价值观,并且在一定意义上获得了认知、共情、道德等情感,甚至能真正进行道德决策,成为一个有道德的人工智能。”

在2023年读懂中国国际会议(广州)一场平行研讨会上,中国科学院自动化研究所研究员、联合国人工智能高层咨询机构专家组专家曾毅抛出了一个设想场景,引发在场嘉宾的讨论。

“我不相信人类会走向终极。”

“我们要拥抱希望,而不是惧怕技术。”

“人类不能只做简单的工作,而是要探索世界的未知。对世界各国而言,不管是谁获得了技术突破的成果,都应该让全人类共享成果。”

“人在决策上是要远远优于技术的,我们不要盲从相信机器比人强,要相信人才是真正的主体。”

清华大学客座教授唐睿思、香港大学中国与世界治理研究中心创始主任李成、德国荣根财团总裁彼得·荣根、浙江大学国际传播中心执行主任方兴东相继发表观点。

在全球范围内,人与人工智能的话题,始终是辩论焦点。

“大家可能认为,我现在描述的这个场景,是不是会在未来50年甚至100年后发生,人工智能究竟会不会成为人类的伙伴和社会的准成员?我们现在有必要如此警惕人工智能的智慧吗?”曾毅继续讲到。

在他的观点里,如果我们现在不思考这些长远的问题,当人工智能开始反思,为什么制定规则是人而不是技术时,我们就根本没有做好应对终极挑战的准备,从现在开始,应该做出一种选择。

“事实上,我们今天讨论人工智能,可能只是产业上的人工智能技术发展,因为绝大部分的科学家做的并非科学意义上的人工智能,但是产业意义上的人工智能技术如何发展、如何治理,这已经关乎社会发展问题。”曾毅说。

曾毅认为,这被视作一种赋能性的技术,可以推进全球可持续发展,更关键的是如何作为一个社会的基础设施生态,推动人工智能技术的发展。

曾毅提出两个“不能混淆”。

首先,我们不应该混淆人与人工智能之间的界限。

“我们在使用很多智能技术时,经常会看到‘我认为怎么样,我以为怎么样,我推荐怎么样’的表述,所以很多公众在不了解人工智能时,都会倾向于相信它。因为觉得它的交流方式是拟人化的,甚至是可以承担道德责任,但实际上人工智能的系统不是一个责任的主体,所以公众被误导了。”曾毅说。

其次,我们还不应该混淆人与人工智能之间的计算,否则只会使人工智能遇到更多的问题。基于当前人工智能发展的阶段,我们应当更负责任地、稳健地发展人工智能技术,并且适度地使用人工智能,才会使得人工智能的技术可持续。

曾毅最后发出疑问,从人类更长远的未来来看,人工智能技术是不是一直会是一个看似智能的信息处理工具,它会不会变为社会的准成员和人类的伙伴,会不会像我们科幻故事当中讲的成为人类的敌人?

“因此,我们今天需要更多反思未来的人工智能,不应该急着去否定任何一种可能。”曾毅说。

【采写】南方+记者 刘珊

【摄影】南方+记者 苏韵桦

【海报】钟冠婷

编辑 程钰琳
校对 刘珺
+1
您已点过

订阅后可查看全文(剩余80%)

更多精彩内容请进入频道查看

还没看够?打开南方+看看吧
立即打开