【导读】《人工智能时代与人类价值》是基辛格生前的最后一本著作。另外两位作者分别是谷歌前 CEO 埃里克·施密特,以及微软前首席研究和战略官克雷格·蒙迪。三位作者以前所未有的深度和广度,审视了人工智能领域的最新进展,直面人工智能带来的关乎人类生存的最为紧迫的问题:人类与机器的区别到底是什么?如果被迫与机器妥协,我们的底线是什么?在技术迅猛发展的今天,我们如何定位人类的价值所在?阅读本文也许你会有所收获。
定义人类
随着机器越来越多地具备人类的特质(且如果某些人类通过自我强化而具备机器的特质),这两者之间的界限将变得模糊不清。什么是人工智能,什么是人类,这些定义都将发生变化,在某些情况下甚至会合而为一。因此,在判断我们必须 如何跟上人工智能的步伐时,人类需要更明确地指出我们与机器的区别。那么,我们将如何梳理和压缩整个人类经验范围,以方便人工智能理解何为人类的问题呢?
为了避免我们被降格至“低机器一等”或干脆被机器取而代之,一些人希望通过人性与神性的接近,来证明我们的与众不同。另一些人则希望得出更具战术性的结论:哪些决策可以交给机器,哪些不能。我们则建议阐明一种或一组属性,让 人类中大多数人都能被其涵盖并围绕其进行定位:这类属性将为“什么可取”提供一个底线, 而不是为“什么可能”提供一个上限。
作为起始,我们鼓励对“尊严”进行定义。如果没有一个共同的尊严定义,当人工智能被用作侵犯或损害尊严的方法或理由时,我们将无法达成一致,因而我们的应对措施就会束手束脚。没有对尊严的定义,我们就不知道人工智能在具备足够能力的情况下,是否以及何时能够成为一个有尊严的存在,或者能够完全站在人类立场上行事,或者能够完全与人类一致。人工智能即使被证明是非人类,也可能是一个独立的、同样有尊严的族类的成员,它也应该有自己的、平等的待遇标准。
康德曾提出一种尊严概念,其核心是人类主体作为能够进行道德推理的自主行为者的固有价值,且这种主体不应被作为达到目的的手段。人工智能能否满足这些要求?我们相信,尊严的定义将帮助人类回答其中的一些问题,并鼓励与人工智能实现包容性共存,同时避免过早与人工智能共同进化的武断尝试。
为了保持对自身的理解,也为了确保在机器学习的过程中能够将适当的人类概念传递给机器,我们人类需要重新致力于此类界定工作,且不能局限于学术范畴。发挥能动性、好奇心和自由,重新激发和锻炼我们对其他人、对自然世界、对宇宙、对神性可能的好奇心,这些将有助于我们持续参与对人类界限的重新定义。
我们尤其需要确保,除了价值和权力等传统的价值理念,人类内在的重要价值也会成为定义机器决策的变量之一。例如,即使以数学的精确性也可能难以涵盖“仁慈”的概念。即便对人类来说,仁慈也是一种无法解释的典范,甚至是一种奇迹。就仁慈本身而言,如果不考虑前述“基于规则的一致化方式”而让机器对此加以学习,机器智能可能高估自己的优良表现,而低估人类在这方面的表现。在这种情况下,即使无法作为规则加以灌输,仁慈背后的逻辑也能被人工智能吸 纳吗?同样,尊严——仁慈得以发扬的内核——在这里可以作为机器基于规则的假设的一部分,或者也可以由机器迭代学习得出。
明确界定具体的人类属性——特别是那些像尊严一样被广泛纳入国际政治文书和全球信仰的属性——可以在迷失时期指导人类的前行努力,包括在主动和被动之间的选择,自我进化的潜在限制,以及人工智能朝着人类方向的精确转化。
为了说明这一概念的实用性,以下定义可用以抛砖引玉:尊严是一些生灵与生俱来的品质,这些生灵生来脆弱、必有一死,因此充满了不安全感和恐惧,尽管他们有自然的倾向,但他们能够而且确实行使了自己的自由,不去追随自己的恶 念,而是选择自己的善念。换句话说,那些能够获得尊严的人,以及那些确实真正获得尊严的人应该得到特别的尊重。
毫无疑问,这个定义并不完美。它可能遗漏了一些无法做出决定的活人——例如,一个有意识但没有反应的人——但我们认为他们值得被承认为有尊严的人,因此有权得到尊重。在这方面,也许应该修改定义,以表明尊严一旦赢得,就不会被剥夺,即使在我们无法继续当初赢得尊严的行动时也是如此。这样的假设和修改可以有无数种。
这是否要求我们敦促那些在强大的人工智能面前选择消极被动的人表现出能动性和积极性?如果积极可行的承诺是任何道德理想的一部分,那么答案是肯定的,应该促进人们以行动实现尊严。根据我们的定义,自由是人类理想的一部分, 因此我们可以期待——甚至要求——人类在人工智能时代保留并行使有意识选择的权力。
根据这个定义,人工智能本身能拥有尊严吗?很可能不能,因为人工智能不像人一样出生,它们不会死亡,不会感到不安全或恐惧,也没有自然倾向或个性,因此恶或善的概念可以被它们认为是“他者的概念”。虽然不久的将来,人工智能可能会以其他方式呈现,如具有个性、表达情感、会讲笑话,还能讲述个人历史,在这个框架下,它们应该像文学人物一样被哲学性地加以对待。它们可能体现了人性的元素,但从道德意义上讲,它们并不是真实的人类。
即使是最伟大的文学人物角色,比如莎士比亚笔下的哈姆雷特,也不过是一个特殊的文字组合,曾经写在纸上,如今又被多次复制。“哈姆雷特”无法感受到眼球的刺痛、胃部的翻腾,以及因期望落空而产生的挫败感。“哈姆雷特”没有做出 新选择的自由。“哈姆雷特”被困在他的剧中。“哈姆雷特” 不是人类,而是人类的一个形象。由一串串代码和一大堆硅片组成的人工智能也是如此。
毫无疑问,有些人因此会抨击这一尊严的定义无论在哲学上还是在实质上都是无济于事的。人们可能会批评它的共同标准太低——由于其过度的可塑性而模糊到足以安抚所有各方;同时也会批评它没有抓住这样一种观点,即人类是因为其自身而值得保护的,而且在某种程度上,我们对自己单纯生存能力的超越是个例外。哲学家叔本华就曾诅咒尊严是“所有困惑和空洞的道德家的陈腐信条”。
但是,尊严,正如我们所定义的那样,有效地支撑着我们的脆弱和失败的可能性,赋予我们活力、自由和彰显我们信念的能力。它指向我们有能力追寻但尚未实现的善,并急切地、严厉地向我们低语:去吧。
诚然,仅有尊严是不够的。在我们与人工智能的未来合作中,还应该具体考虑其他属性,或许还可以将这些属性添加到人性的概念中。但是,我们是否有能力定义和维持人性的核心要素,并将其作为人工智能理解整个人性的基准,现在已是一个具有生存意义的问题,所以努力向人工智能灌输我们的诸多定义这项工作必须现在就勉力为之。
任何定义都不会一成不变;毫无疑问,随着我们自身身份的转变,我们将需要不断发展人工智能对我们的理解。与此同时,那些更胜于我们的一代新人将继续推进我们对“我们” 和“它们”之间动态关系的集体思考,他们中的天赋异禀之人可能会构想出一种人类概念,旨在更强烈地(即使是徒劳地)确保我们作为一个可识别的物种而生存下去。
然而,即便如此,我们这代人仍应努力寻求一种更进一步的定义和程序,将人类的境况提升到新的高度。因为,人工智能本身难道不就可以作为最有力的证据,证明人类有能力成为创造的积极参与者吗?
我们的挑战
如果每个人工智能决策都必须由人类进行战术控制,我们就无法获得人工智能带来的益处。因此,以人类道德的基础作为战略控制的一种形式,同时将战术控制权交给更大、更快和更复杂的系统,这可能——最终也许来得比我们想象的更快——是人工智能安全的未来方向。利润驱动或意识形态驱动的有目的的(人类与人工智能间的)错位是严重的风险,意外的错位也是如此;过度依赖不可扩展的控制形式,可能会极大地助长强大但不安全的人工智能的发展。将人类融入由人工智能组成的团队的内部工作,包括通过人工智能来管理人工智能,似乎是最可靠的前进道路。
虽然开发人性化(或人道)的人工智能是我们的首要任务,但我们也需认识到“人造人类”的某些潜在作用。如果我们能够针对特定能力进行个体自我工程开发,从而使一些人能够在某些方面与未来人工智能所表现的智力相匹配,那么这样的项目可能会很有用处。当然,这种尝试必须是个人选择的产物。本书作者们在此表达的谨慎态度反映了我们的集体困境:进化不能仅仅停留在被设计取代,因为这将是对人性的抛弃。但放弃探索本身——无论是精神的、物质的、科学的还是哲学的——也会造成同样的结果。
在人工智能时代,“设计我们自己”和“与我们的创造物相一致”之间的张力很可能成为我们前进的指南针。这两种需求都是令人向往的,但也可能都是保守的。至于这两种需求在多大程度上会被视为根本性的矛盾,目前尚无定论。如果我 们在这个新时代对人工智能无限探索的能力不加限制,我们将面临陷入被动的风险或更糟糕的,即被完全瘫痪的风险。但是,如果我们追求控制最大化,以给人一种安全的错觉,那么我们就会限制自身潜能的充分发挥。我们能否通过重申一种共同的、不断发展的人类概念,来有效地调解我们的力量——不断进步的设计和发现能力——的行使呢?
我们渴望的是一个人类智能和机器智能能够相互赋能的未来。要实现这一目标,每种智能都必须充分了解对方。确定“我们是谁”只是第一步,因为人类的定义并不是一成不变的。要让我们的机器和我们自己都变得易为人知、一目了然和真实可信,还需要做更多的工作。即使我们在某个短暂时刻能达到这一标准,但对我们所掌握的真理和现实进行标定和共享仍将是一项深入和持续的工程。如此一来,有关人类与人工智能共同进化和共存的问题就不仅仅是要一个回答而已, 更是要付诸实施。
(文:AI科技大本营)