些事动机和能力。
们无法预测2084年
数字独裁政权会有怎样
动机和能力,但要说他们想成为另
个希特勒,是不太可能
。如果有人打算用20世纪30年代
方式来重新打这场仗,有可能会遇到完全出乎意料
攻击,令他们措手不及。
就算m;主制度成功适应调整而生存下来,人民也可能遭受到新形态压迫和歧视。现在,已经有越来越多
银行、企业和机构运用算法来分析数据,做出与
们相关
决定。你向银行申请贷款
时候,申请单很可能是由算法处理
,而不是由人类审核
。算法分析你
大量资料和其他几百万人
统计数据,据以决定你是否可靠,该不该给你提供贷款。
般来说,算法此时会比人类银行职员表现更佳。但问题在于,如果算法里藏着某种不公,
们将很难察觉。如果银行拒绝给你贷款,你问:“为什
?”银行会说:“算法说不行。”但你再问:“为什
算法说不行?
哪里有问题?”银行会说:“
们也不知道。没人知道这套算法背后
道理,总之就是
套先进机器学习
结果。
们相信
们
算法,所以不会贷款给你。”
如果被歧视是某个群体(例如妇女或黑人),这些群体能够组织起来,抗议他们集体遭到歧视。然而,现在算法歧视
有可能就是你这个人,而你完全不知道原因。有可能是你
DNA、你
过去或者脸谱网账号上有些什
,引起
算法
注意。算法歧视你,并非因为你是个女性或黑人,而是因为你就是你。就是有些什
关于你
特质,算法不喜欢。你不知道究竟是什
特质,就算你知道,也找不到人和你
起大声抗议,因为没有其他人会遇到与你
样
偏见,只有你。到
21世纪,除
过去
集体歧视之外,
们可能还要面临日益严重
个人歧视问题。
在最高权力阶层可能还会有几个人类,这让
们有个错觉,以为算法只是顾问,最终
权威还是掌握在人类手中。
们不会任命某个人工智能来担任德国总理或谷歌
首席执行官,但那位总理和首席执行官
决策会由人工智能制定。总理手中会有几个不同
选项,但所有选项都会是大数据分析
结果,反映
也是人工智能看世界
方式,而非人类看世界
方式。
让们举个类似
例子:今天世界各地
政治家似乎可以在各种不同
经济政策之间做选择,政治家有种以为自己可以选
错觉,但真正重要
决定早就由经济学家、金融专家和商人在提出选项时就做完
。也就是说,是他们为政治家定下
选择
方向。而再过几十年,就可能是由人工智能来提出选项,供政治家进行挑选
。
人工智能和自然愚蠢
个
请关闭浏览器阅读模式后查看本章节,否则可能部分章节内容会丢失。