自 AI 诞生以来,除了技术,被讨论得最多的就是与此相关的哲学和道德问题。未来科技,尤其是 AI,已经成为了当今许多大众娱乐产物的热门题材——就算你没看过,也一定被《黑镜》和《西部世界》刷过屏。虽然大众已经从无数的文章中被安利过 AI 世界的美好未来图景,但怀疑的声音却从未间断过。
抱着这种担忧的人并不局限在某些领域。哲学家、艺术家、普通大众,就连科技界的不少大神也是如此。霍金曾说,“ AI 可能毁灭人类”;Elon Musk 也表示,“我们得对 AI 十分小心。希望我们不仅仅是超级智能的生物加载程序。很不幸,这种可能性正在增加。”
近日,在纽约大学举办的“人工智能伦理学”大会上,来自机器智能研究院的 Eliezer Yudkowsky 表示,AI 或许真的有可能会毁灭人类,但是它使用的方式并不会和《终结者》中展示的一样。AI 的思考方式十分“专注”,它会为了完成人类设定的逻辑目标想方设法使用一切资源。 就像之前在不想像《机械姬》里一样被玩得团团转?来看看要怎么“设计出”AI 的安全性中举过的例子一样,AI 不能自行判断达到这一目的的途径是否符合人类的伦理道德。正是因为这一点,AI 未来才有可能构成对人类的生存威胁。
相信每个人都有过电脑发生故障的经历。可以试想一下,如果未来在人工智能控制的电网和海外武器系统中也发生了这样的故障,会造成什么样的严重后果。实际上,就目前 AI 的初步发展来看,也已经出现了不少问题倾向。 计算机视觉技术大神李飞飞:为什么 AI 的发展也需要多样性?一文中,我们曾经报道过李飞飞教授的相关调查,她发现目前的人工智能已经开始出现种族和性别偏见;网络安全问题的危害程度和范围越来越突出;世界各国也开始暗暗较劲,利用 AI 发展自身的军事力量。
来自牛津大学的哲学家 Nick Bostrom 在大会上解释了 AI 发展中可能碰到的两种问题:一种是能够在未来发展过程中被解决的;还有一种是只能发生一次的问题。他更担心的是后者。Yudkowsky 总结道,“AI 将会遇到很多困境,这些问题就像探索太空一样,一旦开始,就永远收不回了。”
“我们正在打造的,是一项我们自己都难以监测的技术。”AI 研究员和哲学家 Wendell Wallach 补充道。
随着 AI 的智力水平和人类的越来越相近,AI 开发人员要如何保证他们创造出来的东西能够遵守人类的道德和行为规范?要回答这个问题,便引出了一系列于此相关的问题。
怎样才算是“对人类有益的”的 AI?这种“有益”是针对全部人还是一部分人而言的?它会扩大收入差距吗?打造更够感受痛苦的 AI 究竟符不符合伦理?打造“有意识”的 AI 需不需要制定具体定义?AI 的终极目标究竟是什么?它对商业发展有利吗?对人类有帮助吗?AI 能提升人的幸福感吗?……
MIT 的物理学家 Max Tegmark 说,“如果我们连自己需要什么都不知道,我们根本就不可能达到目标。”
Stephen Peterson 是来自尼日利亚大学的哲学家,他将以上的所有问题总结为:“不仅要问清楚我们发展 AI 的终极目标是什么,而且要知道我们该如何达到这一目标。”
Facebook 的 AI 研究院总监 Yann LeCun 认为,要达到上文提到的那种智力水平,AI 还有很长的路要走。他把当今 AI 的发展比喻成黑森林蛋糕的制作过程,“我们现在刚刚学会做糖霜和樱桃,但是蛋糕的主要部分我们依然一无所知。”
但是如果说发展 AI 就和烤蛋糕一样的话,讨论 AI 的伦理问题就像是要处理好加入的各种原料的分量一样。大会的大多数参与者都认为,要保证 AI 的发展不会带来永久性的伤害,人类必须首先解决这些伦理和安全问题。
这并不意味着与会者都对 AI 的发展持怀疑态度。相反,他们对于 AI 的潜力坚信不疑。问题的关键在于要认清这一过程中可能出现的问题,解决它们,让 AI 得到良性发展。
“一说到 AI 问题,” 康涅狄格大学的哲学家 Susan Schneider 说道,“哲学便离不开生和死的探讨。”
我来说两句排行榜