我们为什么不相信算法?
作者: mints 编译 / 3068次阅读 时间: 2021年5月21日
标签: AI 人工智能 算法
www.psychspace.com心理学空间网
为什么很多人都不相信人工智能(AI)的算法,拒绝AI带来的巨大便利?
心理学空间9|#NH9\;cy)NL

人工智能(AI)推动了风险感知的信任程度

M,~}'Pcr.l"hH0心理学空间vvG8\2v9Tw

算法似乎总是正确的,但现实总是充满了不确定性——投资、开车、做手术、评估工作以及申请大学offer都充满了太多的变化因素。心理学空间(R3_(G\hZ

:?-LG}M7z!u;I0那么,人们是否愿意求助于人工智能,以获得更好的结果呢?近期发表在《心理科学》杂志上的一项研究发现:人们还没有准备好接受人工智能的计算结果。心理学空间coH+XwR

ita$Q7HD$}_0芝加哥大学的Berkeley J. Dietvorst和Soaham Bharti说:心理学空间XgN zco1f/S

3Nj3q-U9Li5Y0O3_m0“这些结果表明,人们不愿意在固有的不确定领域采纳AI算法并不是因为人们在等待技术改进,或者等待更好的算法。“心理学空间f/?c9A2B fP/zF

R f O/b;kU+U8d e0”鉴于投资、医疗决策和其他领域天生就存在很多的不确定性,因此人们在这些领域使用人工智能的可能性就更低,哪怕是目前最好的算法。”

Txj.KG I I+sJ0

X9MI,\x7A[0我们知道,人工智能算法确实优于人类的预测,人工智能使用的工具更先进,遵循的规则更合理,错误率都比人类更低。

~}3g+K }\[*~0

-Zs8f"~U(A4fz0研究人员说:“拒绝采用这些(优于人类)的算法会带来更高的成本。例如,很多人都不敢使用自动驾驶技术……尽管研究表明,自动驾驶系统挽救了成千上万人的生命。”

k^e&G/Js/t0

/P(}n;]tA0
)ADZ gsFL0心理学空间2l.``1L!iA6rc

:Q)FM(T kF0心理学空间!wn\2d `k`
心理学空间"pc|XAzFj6Z5o

9SU/G9]/]0U0拒绝人工智能是因为他几乎不犯错心理学空间O XQ _odq|C Z

心理学空间0Y f'Jvc're!@

那么,是什么阻止了人们对人工智能的接纳程度,反而偏爱人类自己的技能和本能?

fcTLN'S:^P0心理学空间\r#xRIZ

研究人员认为,这其中的原因在于我们相信自己会对不确定的决定承担更多风险,我们不相信计算机会为我们承担这种风险。因为人工智能一旦犯错,他们的错误就更加的显眼,哪怕人工智能犯错的情况非常罕见。

#Q P:Mgjvo0

5O&B!wd La.[!odi0Dietvorst和Bharti在谈及相关的决策风险时说:心理学空间$rs\3q,T&[nH2po

心理学空间F!B0{/`.|II${

“我们建议人们逐渐降低预测误差的敏感性,即,渐渐不再挑剔预测的准确性,并且接受一定程度的误差。这会让人们偏爱那些近乎完美的方案(即,一个几乎没有错误的方法)。”心理学空间'a3G$ID/G5?

心理学空间J0N kF.Y!C

“与之相反,当人们觉得算法不可能产生近乎完美的答案时,他们往往会选择风险更高、往往表现较差的决策方法(如人类判断)。”

p_ mYC)^@4?_0

}l&B ^-_ `J;S0研究人员通过9项实验发现:“人们觉得近乎完美的预测(可能产生的最好的预测,几乎没有误差)之间存在的主观差异更大,而误差较大的预测之间的主观差异却相对较小。”心理学空间5b0}K Cc

L)JWrv.f?vt0也就是说,预测越是精确,人们越是需要更高的准确度;当误差较大时,反而会更能够马马虎虎的接受。

)n a,y#I W h0L0

e ?8V5`T^!tg!o&S%[0研究结果显示,人们不太可能在难以预测的(随机或方程)领域中选择最佳的决策者,相反,他们自认为的近乎完美选择更可能来自于自己的喜好,而且选择结果有很大的差异。最终导致了人们在不确定的领域中选择那些风险更大、结果较差的决策者(例如人为判断)的倾向。心理学空间X"^ ~S8Z

心理学空间t^6H3y6`

研究人员总结说:“这些结果表明,说服人们在固有的不确定领域使用算法。并非意味着拿出更好的技术或出现更好的算法。”心理学空间 M'Q$x `M@_

心理学空间8\1{,U2}e#FyS

这种拒绝人工智能的行为会带来巨大的影响,因为如果人们不愿意通过人工智能预测不确定性的话,这些领域就无法利用技术进步获得更多的收益。”

$^0lz7fS.e6b}"[g0

UsYv f}0心理学空间Z6\ u5_ gz-I1x

8|@)@@`8v)\s(C0

"Dgw+Lr+t0机器有道德吗?

E4nyDdJ&n0心理学空间/E|`0Q1u0^ XT2R \1N

最近的另一篇文章探讨了无人驾驶的困境。

Y\$GL.f M0k*G)X(X/?Z3c0心理学空间Q__+gEj3d

在这种困境中,自动驾驶的车辆必须在道路上做出高风险的道德决定,例如,应该伤害谁、拯救谁(例如行人或乘客)。心理学空间!~v6Sj#g!u%p

?y'xwH;gb$e0Julian De Freitas等人认为,这些担忧会扰乱工程和政策决策。心理学空间+qE(O:qK w+];T

心理学空间(Vc9@!nj![9k*O

他说:”我们教人类如何开车时,不会让驾驶员被迫进行选择——不会告诉他应该杀了谁。这是因为计划一个不可能、无法察觉和无法控制的情况会扰乱我们训练新司机的目标——尽量减少伤害任何人。”

X&d/z H:R+t/u0

qFAO(N&|oa!SQ0研究人员说,这样的目标同样适用于自动驾驶系统。

Uv%K#_.L,l0www.psychspace.com心理学空间网
TAG: AI 人工智能 算法
«在网络上做真实的自己会更幸福 社会心理评论
《社会心理评论》
相对剥夺理论»