如果我们成功构建一个智能代理,能够感知、行动并且比其创造者更智能,会发生什么? 我们如何说服机器实现我们的目标而不是他们自己的目标?
以上是本书最重要的概念之一“人类兼容:人工智能和控制问题正如诺伯特·维纳(Norbert Wiener)曾经说过的那样,我们必须避免“为机器赋予目的”。 过于确定其固定目标的智能机器是危险人工智能的终极类型。 换句话说,如果人工智能不愿意考虑其在执行其预先编程的目的和功能时出错的可能性,那么人工智能系统就不可能自行关闭。
斯图尔特·拉塞尔 (Stuart Russell) 概述的困难在于指示人工智能/机器人不惜任何代价实现任何指示命令。 为了喝一杯咖啡而牺牲人的生命,或者为了提供午餐而烤猫,都是不可以的。 必须明白,“尽快带我去机场”并不意味着可能违反超速法规,即使这一指示并不明确。 如果人工智能犯了上述错误,那么故障保险就是一定程度的预编程不确定性。 由于存在一定的不确定性,人工智能可以在完成任务之前挑战自己,或许寻求口头确认。
在 1965 年的一篇题为“关于第一台超级智能机器的猜测”,与阿兰·图灵一起工作的杰出数学家 IJ Good 说道:“人类的生存取决于超智能机器的早期建造”。 为了使自己免遭生态、生物和人道主义灾难,我们完全有可能必须构建最先进的人工智能。
这篇开创性的论文解释了智能爆炸,该理论认为超级智能机器可以在每次迭代中设计出更好、更卓越的机器,这不可避免地导致通用人工智能的诞生。 虽然通用人工智能最初可能具有与人类同等的智力,但它会在短时间内迅速超越人类。 由于这个既定的结论,人工智能开发人员必须实现本书中分享的核心原则,并学习如何安全地将它们应用于设计人工智能系统,这些系统不仅能够服务人类,而且能够拯救人类自身。
正如 Stuart Russell 所言,退出人工智能研究不是一种选择,我们必须继续前进。 本书是指导我们设计安全、负责任且可证明有益的人工智能系统的路线图。
作者简介
斯图尔特·罗素 Stuart Russell,加州大学伯克利分校计算机科学家,人类兼容人工智能中心(CHAI)主任,人工智能研究实验室指导委员会(BAIR)成员。世界经济论坛人工智能和机器人委员会副主席,美国科学促进会(AAAS)会士,美国人工智能协会(AAAI)会士。
简要目录
前言
01 如果我们成功了
02 人类和机器的智能
03 人工智能在未来会如何发展?
04 人工智能的滥用
05 过于智能的人工智能
06 不那么伟大的人工智能辩论
07 人工智能:一种不同的方法
08 可证明有益的人工智能
09 复杂的难题:我们
10 问题解决了吗?
附录A 寻找解决方案
附录B 知识与逻辑
附录C 不确定性和概率论
附录D 从经验中学习
致谢