来源:秦朔朋友圈
这是阿信今年最不愿意你错过的一本新书——《浪潮将至》。
AI目前正在从各个层面重塑我们的生活,错过这波浪潮,就像15、16世纪错过大航海一样,会留下世纪性遗憾。
对于目前人类整体科技进度的把握,估计很少有人能比比尔·盖茨更为精准、更具前瞻力。
在回答公众关于人工智能的疑问时,盖茨的回答就是——看看这本《浪潮将至》。
比尔·盖茨说,这也是他向国家元首、商界领袖和其他任何对AI存有疑问的人推荐最多的一本书,这也是他本人最喜欢的关于AI的书。
《浪潮将至》一再入选比尔·盖茨今年的书单,在近期发布的冬日书单中,盖茨再次将它列入其中。
他说,无论你是科技爱好者、政策制定者,还是仅仅想了解世界未来走向的人,都应该阅读这本书。
它不会给你简单的答案,但它会帮助你提出正确的问题——并让你更好地准备驾驭即将到来的浪潮,而不是被它卷走。
《浪潮将至》由两位作者合著,分别是DeepMind联合创始人、微软人工智能CEO穆斯塔法·苏莱曼和数字出版领域的佼佼者迈克尔·巴斯卡尔。
|迈克尔·巴斯卡尔(左)和穆斯塔法·苏莱曼(右)
人工智能既极具价值,又充满危险,因为它正是人性最好与最坏的延伸。
随着人工智能不断增强,我们必须认真思考和减轻那些最极端情况的影响。然而,在我们能够做到这些之前,很多问题可能已经发生。
《浪潮将至》中,围绕技术浪潮所带来的风险,讨论了一系列发人深省的问题。
人类的历史就是一部灾难史
在某种程度上,人类的历史就是一部灾难史。
大流行病广泛存在。其中有两场大流行病曾导致世界上多达30%的人口死亡:6世纪的查士丁尼瘟疫和14世纪的黑死病。1300年,英格兰的人口约为700万,但到了1450年,由于瘟疫的肆虐,人口锐减到仅剩200万。
当然,灾难也可能是人为造成的。一战和二战分别导致全球约1%和3%的人口死亡。随着原子弹的出现,人类现在拥有了足以多次毁灭地球上所有生命的致命力量。
|广岛
过去需要数年甚至数十年才可能发生的灾难性事件,现在只需按下按钮,便可在几分钟内发生。
随着新的技术浪潮逼近,我们又朝着潜在的灾难迈出了一大步。风险的上限显著提升,同时,那些企图释放灾难性力量的人所拥有的途径也大幅增加。
我从国家的脆弱性和国家职能所面临的威胁出发,我们不妨进一步设想:在技术遏制无法实现的情况下,人类世界迟早会发生什么。
在新的技术浪潮下,不法分子有可能造成严重破坏,引发大规模的不稳定。请想象一下,当任何一个具备一定能力的实验室或黑客都能合成复杂的DNA链时,我们离灾难性事件还有多远?
随着时间的推移,这些技术的影响将迫使人类在灾难与反乌托邦的两种极端之间探寻一条中间道路。这已成为我们这个时代的根本性困境。
关于即将到来的技术浪潮所带来的风险,人工智能领域的隐患尤其引人关注,而其风险仍在不断攀升。
一旦军队实现全面自动化,冲突的发生门槛将会显著降低。战争可能因某些永远难以明确的原因而意外触发,人工智能系统在检测到特定行为模式或威胁时,可能会立即以势不可当的力量做出反应。
可以说,这样的战争将呈现出一种完全陌生的性质,它容易迅速升级,并带来前所未有的毁灭性后果。
正是基于这样的逻辑,我常听到这类声音:“通用人工智能是人类所面临的最大风险!它将毁灭世界!”
然而,当被追问那将是怎样的场景,那一切将如何发生、有多么危险时,人们开始回避,给出含糊不清的回答。
他们认为,人工智能可能会占用所有计算资源,将整个世界变成一台庞大的计算机;随着人工智能不断增强,必须认真思考和减轻那些最极端情况的影响。然而,在我们能够做到这些之前,很多问题可能已经发生。
在未来10年里,人工智能将成为历史上最强大的力量放大器。这就是为什么它将引发大规模的权力重新分配。
它将成为人类进步的最大加速器,但也将为战争和事故、恐怖组织、专制政府、权力过度扩张的公司以及公然盗窃和故意破坏等危害行为提供助力。设想一个能够轻松通过现代图灵测试却用于灾难性目的的通用人工智能。
先进的人工智能和合成生物学技术不仅能为那些致力于寻找新能源或研发改善生命的药物的组织所用,也可能成为像特德·卡钦斯基这样的恐怖分子的工具。
人工智能既极具价值,又充满危险,因为它正是人性的最好与最坏方面的延伸。
如果未能遏制即将到来的技术浪潮,灾难的降临就是迟早的事。
一种自我强化的“人工智能专政”
阻止灾难发生显然是紧迫之事。灾难越大,利害关系越大,对对策的需求也越大。
技术已渗透到我们文明的方方面面,因此,监控技术就意味着监控一切。
每个实验室、工厂、服务器,每段新代码,每串合成的DNA,每个企业和大学,每个隐匿在森林小屋中的生物黑客,每个庞大的匿名数据中心,无一例外。
面对即将到来的技术浪潮所带来的前所未有的复杂局面,为了遏制潜在的灾难,我们必须采取前所未有的应对措施。这不仅要求对一切进行严密监控,还需要保留在必要时制止一切的能力。
一定会有人提出这样的观点:我们应该让权力集中到极端程度,构建全景式的监控体系,对人类生活的方方面面做出细致安排,以确保大流行病或人工智能失控等情况永远不会发生。
但这些提议目前仍处于边缘地位。然而,在《浪潮将至》看来,它们受到更广泛的关注只是时间问题。
在自由与安全之间的权衡是一个古老的两难困境。
《浪潮将至》认为,一个完全透明且基于精细监控的压制性社会,不过是另一种失败形态。在这种情境下,即将到来的技术浪潮不会将人类引向繁荣,而是引向繁荣的反面。
每一场技术浪潮都曾为社会秩序带来系统性的冲击。不过迄今为止,以往的技术浪潮尚未带来广泛且系统性的全球灾难风险。但即将到来的技术浪潮与此前截然不同,这可能促使人类采取一种反乌托邦式的应对方案。
所以现在,我们是否应该给技术按下一个暂停键?
停滞:另一种灾难
数百年来,技术的持续发展似乎使社会得以挣脱历史规律的桎梏。然而,认为历史的动态演变已经停滞不前是一种误解。
21世纪的文明固然与玛雅文明大相径庭,但庞大且渴望权力的上层建筑、众多的人口、能源供应以及文明发展的硬性限制依然存在;它们所带来的影响只是被暂时抑制了。
假设存在一种情况,即技术的驱动力能够被有效遏制。那么,在这种情况下,我们能否全面暂停技术的发展?答案是否定的,绝对不可能。
现代文明只有依靠持续的技术发展才能兑现其承诺。社会体系存在的前提是能够确保长期的经济增长,这依赖于新技术的发明和推广。
开发新技术是应对地球面临的重大挑战的关键所在。没有新技术的支持,我们将难以克服这些挑战,一切迟早都会陷入停滞,甚至可能彻底崩溃。
鉴于人口和资源限制,仅仅为了维持现有生活水平,我们可能就需要将全球生产率提高2~3倍。
然而,对世界上大部分人来说,仅仅维持现有生活水平仍然是不可接受的。许多国家的儿童死亡率比发达国家要高出12倍。当然,即使只是保持当前的生活水平,也不仅仅意味着人口和资源方面的压力,还将加剧气候紧急状况。
请注意:停滞不前本身就是灾难。
这不仅关乎餐厅劳动力短缺或电池价格昂贵的问题。这意味着现代生活的方方面面都存在崩溃的风险,从而带来一系列深远影响,并与众多本已棘手的问题相互交织。
历史的先例——几乎是每个过往文明的常态,都清晰地揭示了这一点。在最好的情况下,停滞不前预示着未来的衰败;但更可能的情况是,它将导致令人担忧的崩溃。
因此,暂停技术发展并非解决之道;其只会导向另一种形态的反乌托邦,另一种形式的灾难。
这就是我们面临的巨大困境。
接下来,我们该怎么办?
1955 年,在生命的最后阶段,数学家约翰·冯·诺依曼撰写了一篇名为《我们能在技术中幸存吗?》的论文。
他的观点与《浪潮将至》的主旨不谋而合,他认为全球社会“深陷迅速成熟的危机之中——这场危机的根源在于技术进步所必需的环境已经变得过于狭隘且缺乏有序组织”。
在论文的结尾部分,冯·诺依曼将生存视为“一种可能性”,仿佛他正身处自己设计的计算机所造成的“蘑菇云” 阴霾之下。
“技术性风险没有任何‘解药’,”他提到,“任何试图为当前爆炸式的进步寻找自动安全通道的尝试都将是徒劳的。”
尽管技术带来了诸多危害、缺陷和意外后果,但总体而言,它的贡献迄今为止仍是较大的。毕竟,即便是技术的最严厉批评者,也不会拒绝使用热水壶、服用阿司匹林、观看电视和乘坐地铁。
对于每一支枪,技术提供了一剂救命的青霉素;对于每一条错误信息,技术也协助揭露真相。
然而,不知为何,自冯·诺依曼的时代以来,许多人开始对技术发展的长期轨迹感到忧虑。我们担心的是,技术呈现出了一种其净收益可能会急剧转变为负值的可能性,而我们却无法阻止这种转变,我们陷入了一种无能为力的困境。
没有人能确切预知这一切将如何展开。然而,《浪潮将至》坚信,在未来几十年里,社会繁荣、监视与灾难威胁之间的权衡状态将变得更加尖锐。即使是健康状况最好的国家体系,也难以应对这样的困境。
这是人类作为“技术人”所面临的终极挑战。
随着新技术浪潮的到来,我们正面临着一个真正的威胁,面临一系列潜在的灾难性后果——这样的风险甚至关乎人类的生死存亡。技术同时代表了人类最好和最坏的方面。任何片面的观点都不足以被称为对技术的客观审视。
唯一合理的技术认识论便是同时认识到技术的正负两面。
在过去的10 年里,这一困境越发凸显,摆脱它的任务也变得更加紧迫。审视现实世界,技术遏制似乎难以实现。
然而,考虑到那些可能的后果,另一件事情也同样显而易见:为了所有人的利益,我们必须让遏制成为可能。
特别声明:以上内容仅代表作者本人的观点或立场,不代表新浪财经头条的观点或立场。如因作品内容、版权或其他问题需要与新浪财经头条联系的,请于上述内容发布后的30天内进行。