精彩导读
人工智能监管的预防原则
人们对不确定性的自然反应是谨而慎之。 预防原则认为, 如果一项活动的
后果可能很严重, 但又存在科学不确定性, 那么应该采取预防措施, 或干脆不
要开展这项活动 ( Aven, 2011) 。 这一原则在许多有关环境的国内法中都有体
现, 并在大多数涉及该主题的国际文件里发挥了关键作用。 例如, 1992 年
《 里约环境与发展宣言》 指出: “ 遇有严重或不可逆转损害的威胁时, 不得以
缺乏科学充分确实证据为理由, 延迟采取符合成本效益的措施防止环境恶化”
( Rio Declaration, 1992) 。 在某些情况下, 实施该原则相当于颠倒了举证责任:
声称某项活动是安全的人必须证明该活动确实是安全的 ( Le Moli et al. ,
2017) 。
批评者认为, 这一原则要么含糊不清, 要么缺乏连贯性, 或兼而有之。 对
该原则的弱解释等同于一个常识, 因为鲜少有人会认为采取预防措施需要充分确
定的科学证据; 而对该原则的强解释容易弄巧成拙, 因为预防措施本身也可能产
生有害影响 ( Boyer-Kassem, 2017) 。 在一篇厚如一本书的长文中, 卡斯·桑
斯坦 ( Cass Sunstein, 2005, pp. 109 - 115) 谴责该原则具有 “ 欧洲性” , 他概
述了恐惧心理如何以可预见的非理性方式在协商民主制社会产生影响, 尤其提
到了高估损失的心理现象和过激的言论。 但即便如此, 大多数人依然认为, 至
少在风险实际发生或者能被量化之前, 就应该采取预防措施。
在人工智能的情形中, 预防原则经常被应用于自动驾驶汽车 (Smith, 2016,
p. 572), 致命性自动武器 ( Bhuta and Pantazopoulos, 2016, pp. 290 - 294) , 司
法系统中个人数据处理算法的使用 ( European Ethical Charter on the Use of AI,
2018, p. 56) , 以及通用人工智能攻击人类创造物的可能性 ( Maas, 2018 )
等。 然而, 只有最后一种情况是对这项原则的适当应用, 因为在这种情况下,
风险的性质和发生概率的确是不确定的。 譬如, 自动驾驶汽车的确切故障率可
能是未知数, 但其危害众所周知, 且可以与人类驾驶员构成的现有威胁进行权
衡。 至于致命性自动武器, 反对者明确拒绝进行成本收益分析, 只是主张在涉
及人类生命的决策方面划定鲜明的道德界限。 虽然关于人类应该对人工智能施
加何种程度的控制一直争论不断, 但 “ 风险” 本身是无可争议的。 同样, 人
们对于将公共部门决策外包给机器持谨慎态度, 并非仅仅基于由此产生的后果
具有不确定性。 相反, 这类谨慎态度与如下观点有关, 即公共部门决策应当由
人类在政治问责制的框架内做出。
然而如前文所述, 值得注意的是, 尽管通用人工智能存在风险, 但迄今为
止, 尚未出现协调一致的行动来限制这个领域的纯理论研究或应用研究。 更有
效的做法是呼吁关注科林格里奇困境的第二个方面: 要求纳入 “ 终止开关”
之类的措施, 或者努力让未来的超级智能与人类自身保持一致的价值观。 这些
可以看作优先考虑人类控制原则的应用。 如果通往通用人工智能的道路变得更
加清晰, 这些措施就应该成为强制性的要求。