,即便是赴汤蹈火,它都将在所不辞。(当然,如果你针对这些汤汤火火另加个例外条款,情况就不样
。)同样,如果自动驾驶汽车
程序原本就写着要转进逆向车道救那两个小孩,你绝对可以用生命打赌,它
定会这样做。也就是说,设计自动驾驶汽车
时候,丰田或特斯拉就是把过去道德哲学上
理论问题转化成
实际
工程问题。
当然,哲学算法永远不会是完美。错误还是会发生,有人会受伤,有人会死亡,更有随之而来麻烦不已
诉讼。(历史上第
次,可能会有哲学家因其所提出
理论造成不幸结果而被告上法庭,因为这也是历史上第
次能够证明哲学概念与现实生活中
事件有直接因果关系。)然而,如果只是要取代人类驾驶员,算法并不需要做到完美无缺,只要比人类更好就行
。鉴于人类驾驶员每年造成超过100万人因车祸死亡,算法要表现得比人类好并不是什
太难
事。你会希望旁边那辆车
驾驶员是谁?是某个喝醉
小鬼,还是舒马赫和康德
合体?
这套逻辑不仅适用于驾驶,也适用于其他许多情况,比如申请工作。在21世纪,已经有越来越多时候是由算法决定是否聘用某人。当然,
们不能让机器来制定相关伦理标准,这件事还是得由人类自己来完成。但只要确立
职场
伦理标准(比如不得歧视黑人或女性),接下来就可以用机器来实施和维护这项标准
。
某位人事经理可能心知肚明歧视黑人和女性有违伦理道德,但遇到某个黑人女性来申请工作时,还是下意识产生歧视而不予录用。如果让计算机来评估求职者,并在编写程序之初就设定要完全忽略种族和性别因素,计算机
定会乖乖跳过这些因素,因为它并没有潜意识可言。当然,要写这种求职者评估程序并不容易,而且存在
种危险:工程师可能会不经意间把自己
潜在偏见写进软件里。不过发现这种错误后要清除也并非难事,至少比清除人类种族歧视和偏见
难度要低得多。
们已经看到,人工智能兴起之后,可能会把大多数人类挤出就业市场,比如司机和交通警察(没
鲁莽
人类驾驶员,只剩下乖乖开车
算法,交通警察也就无用武之地
)。然而,对哲学家来说可能会出现
些新
工作机会,他们
专业技能在过去没什
市场价值,但未来可能会突然变得相当吃香。所以,如果想读个未来能找到好工作
专业,或许可以考虑
下哲学领域。
当然,哲学家对于什是“对
行为”很少有共识。“电车难题”之类问题
答案,很少能让所有哲学家都满意,例如穆勒这样
结果论者(consequentialist,以结果
请关闭浏览器阅读模式后查看本章节,否则可能部分章节内容会丢失。