8版 书评  查看版面PDF

2018年

7月21日

查看其他日期

试想一下,当生命摆脱进化束缚会怎样

2018-07-21 来源:上海证券报
  《生命3.0》
  人工智能时代,人类的进化与重生
  (美)迈克斯·泰格马克 著
  汪婕舒 译
  湛庐文化出品
  浙江教育出版社
  2018年6月出版

——读泰格马克《生命3.0:人工智能时代,人类的进化与重生》

⊙程奕龙

2018年,无论你想要了解人工智能,还是想要更加深刻地思考人工智能的影响,你都有很多不错的选择,而这本《生命3.0》更开启了特别的视角。作者泰格马克是个看似有些“不务正业”的科学家。早些年,用他自己的话说,“白天规规矩矩做天体物理,晚上则信马由缰研究平行宇宙”,十几年下来,竟成了平行宇宙理论大家。而最近他又对人工智能有了浓厚兴趣。在没耽误本职的前提下,他一连发表了五篇研究人工智能的论文。可以说,在骨子里,他流淌着文艺复兴时代传承下来的“通才”血脉。此外,他还与霍金、马斯克等人共同建立了未来生命研究所,致力于研究如何让人工智能等重要技术真正造福人类。《生命3.0》这本洋洋三十万字的巨作由此问世。

重新思考人机共生的未来

一本讲人工智能的书,泰格马克却在开篇给生命重新下了个定义。回顾生命历程,可看到脉络清晰的两个阶段。最原始的生命只能被动通过自然选择“升级”,作者称之为生命1.0,生物阶段。而人类虽然身体硬件无法主动改变,但可通过学习改变行为模式,让软件升级,这便是生命2.0版本——文化阶段。泰格马克大胆推测,在下一个阶段,生命将摆脱进化的束缚,从“硬件”和“软件”自我升级,而人工智能最有潜力成为“生命3.0”。

泰格马克的“重新定义”并非噱头。人工智能对人类社会的冲击和影响将远远超出工具的范畴。随着机器学习技术的突破,“认知图谱”(帮助机器获得人类一样的学习和认识能力)等一系列新技术已走入人们的视野。已初现端倪的“通用人工智能”(可完成包括学习在内几乎所有目标,以及认知任务的能力的人工智能)将有可能一举改变人类社会的通行规则。作者用温和而理性的方式发出警告:我们更应以看待一种新生命的方式来看待人工智能,审慎考量我们在经济、伦理,乃至政治等一系列层面上,如何承受即将到来的“新生命”。

虽然“生命3.0”还处于未来时态,但怎样与它打交道,却是当下一个迫切的问题。政府、企业和公众都应承担起相应的责任。在发达国家,公众已对技术持有更严肃和审慎的态度,前不久谷歌公司4000名员工抵制公司参与武器项目,因为“人工智能应是一项造福人类的善意技术”。

虽然在资本和技术的推动下,“人工智能”概念成为当下一大热潮。然而,业内却对很多更为根本性的问题缺乏共识。泰格马克曾参加瑞典诺贝尔基金会举办的人工智能研讨会,发现在“什么是智能”这个问题上,那些顶尖的人工智能研究者在“什么是智能”这个问题上都未能达成共识。

在面对人工智能这一宏大话题时,泰格马克一个很重要的策略是“第一性原理”。这个早由亚里士多德提出,之后在科技界被马斯克等人发扬光大。第一性原理认为,任何系统中都存在一个不可化约的基本命题,这一命题将是我们思考未知的重要出发点。比如对谷歌公司来说,它的第一性原理就是“便利,免费”,这贯穿在谷歌公司所有脍炙人口的新产品中。而对泰格马克来说,思考人工智能的第一性原理便是物理定律。如他所言,宇宙中的生命最终极限取决于物理定律。从这样的视角出发,他在“智能”“意识”这些根本问题上交出了不一样的精彩答卷。

专用智能,通用智能与“生命3.0”

当下主流学界对人工智能有着两条泾渭分明的界定:狭义人工智能(Narrow Intelligence)又被称作专用人工智能,即我们当下熟知的人工智能。这一技术构建在算法之上,帮助人类完成下棋或是开车之类的专门任务。然而,当我们从长远考虑人工智能的影响,首先就该牢记,我们在谈论的是“通用人工智能”(Artificial General Intelligence,AGI)。通用人工智能并非远在天边。迈克斯·泰格马克对100多位人工智能领域的代表作了一次调研,请他们预测:多少年之后人类水平的通用人工智能实现的可能性将达到至少50%的程度?答案的平均数是在2055年。

如果我们的目光投向更远一点的地方,通用人工智能的诞生有着非同一般的意义。弗诺·文奇提出过“奇点”理论,又被称作“智能爆炸”,而通用智能就是这个“奇点”。通用人工智能能够将硬件与软件的设计和更新能力指数级放大,1变2,2变4,100变200,5000变10000,远超人类能力的“超级智能”。或者换种说法,生命3.0将会以临门一脚的姿态诞生在这个世界上。

泰格马克警告我们,技术的发展早已突破一个临界点,我们愈发难以通过试错的方式改进技术。从当下来看,无论是核技术,还是人工智能,都是如此。1983年,苏联一个自动化预警系统报告称,美国向苏联发射了5枚陆基核导弹。此时留给军官仅有几分钟决定,这是否是一个假警报呢?他们仔细检查了卫星,发现它运转正常。但当时的军官相信自己的直觉,如果美国发动袭击,不会只用5枚导弹。因而他坚持向长官报告,这是一场假警报。而如果当时的决策系统是一个循规蹈矩的人工智能的话,必定指认这是真警报,那可能麻烦就太大了。对人工智能技术的安全性,我们只能增大投入和研究,避免其万无一失,而不是亡羊补牢。

目标问题是回答一切的关键

人类如何与“生命3.0”和谐共存?泰格马克认为,关键在于目标一致。人类能控制老虎等猛兽,并不是因为比老虎强壮,而是因为比它们聪明。这意味着,如果我们不再是地球上最聪明的存在,那么,我们也有可能会失去控制权。超级智能的最大优势在于完成目标,倘若它的目标与我们不一致,我们的麻烦就大了。

而目标问题一向又是极其复杂。相信大家都还记得,年初时,特斯拉、优步等公司接连曝出无人驾驶汽车的伤亡事故。法国图卢兹经济学院的团队对此曾提出过这样一个问题:如果你正在乘坐的自动驾驶汽车冲向人群,刹车已坏,自动驾驶应该选择撞墙丢掉你的性命还是冲向人群?这一伦理哲学的问题,直接折射出人工智能背后一系列伦理、经济,乃至法律上的复杂问题。泰格马克花了一整章的篇幅,从技术和伦理的角度深入探讨。

让人工智能安全研究进入主流

与《生命3.0》交相呼应的是,现实中“人工智能有益运动”也正以星火燎原之势席卷全球企业界和学术界。《华盛顿邮报》曾有评论将2015年视为人工智能安全研究进入主流视野的元年。在那之前,对人工智能风险的讨论常常被主流研究者误解和忽视,甚至讨论这些问题的人被他们视为企图阻碍人工智能进步并四处散播谣言的“卢德分子”。

2014年,泰格马克与斯图尔特·罗素、斯蒂芬·霍金联合在《赫芬顿邮报》上发表“超越我们对超级智能机器的自满”一文,表达了对迅速发展的人工智能潜在风险的深深担忧。这篇文章引发了一阵媒体对人工智能安全报道的热潮。随后,泰格马克与霍金、马斯克以及其他重量级科学家、研究者共同创办了未来生命研究所。眼下,这家研究所已经资助了全球37个团队的人工智能安全研究。

2017年初,未来生命研究所主办了一场“阿西洛马大会”,3000余位代表共聚一处,探讨人工智能发展所面临的一系列安全问题。在会场上,可以找到拉里·佩奇、埃里克·施密特这些企业家,吴恩达、丹米斯·哈萨比斯这样的技术专家,以及丹尼尔·卡尼曼这样的来自心理学、经济学、社会学方面的顶级专家。DeepMind、谷歌、Facebook、苹果、IBM、微软和百度等公司的代表也悉数到场。经过激烈争论,反复商讨,最终发表了著名的“阿西洛马人工智能原则”,在研究问题、伦理与价值和长期问题三个方向上,为人工智能安全而有益的发展确立一个基本框架。

今年3月辞世的霍金在推荐《生命3.0》时所说过,“无论你是科学家、企业家还是将军,所有人都应该扪心自问,现在可以做些什么,才能提升未来人工智能趋利避害的可能性。这是我们这个时代最重要的对话。”对于我们所有人来说,技术到底意味着什么?我们又该怎样通过审慎的选择,迈向一个更加美好的未来?这些问题,需要每个人的审慎思考与深入讨论。

目前,人工智能在安全层面的研究愈发受到重视。各国政府也纷纷发布多种报告和政策建议。只是,这些都还远远不够。还记得美国科幻小说黄金时代的代表人物之一阿西莫夫当年曾发出的警示吗:“如今,生命最大的悲哀莫过于科学汇聚知识的速度快于社会汇聚智慧的速度。”