我们为什么不相信算法?
作者: mints 编译 / 3171次阅读 时间: 2021年5月21日
标签: AI 人工智能 算法
www.psychspace.com心理学空间网
为什么很多人都不相信人工智能(AI)的算法,拒绝AI带来的巨大便利?

W7G-| kfJ-u#S7F0人工智能(AI)推动了风险感知的信任程度心理学空间+S4S@3JU4q5Ij

_mJ-o_ G/@u0算法似乎总是正确的,但现实总是充满了不确定性——投资、开车、做手术、评估工作以及申请大学offer都充满了太多的变化因素。心理学空间 }\6KB_I

*qHl(~-l0那么,人们是否愿意求助于人工智能,以获得更好的结果呢?近期发表在《心理科学》杂志上的一项研究发现:人们还没有准备好接受人工智能的计算结果。心理学空间e w@2hMm]p

心理学空间NEzJiD;H P

芝加哥大学的Berkeley J. Dietvorst和Soaham Bharti说:

:Z.ZC'F#N:S$n1@0心理学空间3n K7T*tS"FpV*x

“这些结果表明,人们不愿意在固有的不确定领域采纳AI算法并不是因为人们在等待技术改进,或者等待更好的算法。“

?JlF2g|O0心理学空间E&KW'i4@)I L or8B

”鉴于投资、医疗决策和其他领域天生就存在很多的不确定性,因此人们在这些领域使用人工智能的可能性就更低,哪怕是目前最好的算法。”

+M9w TkP.LD7a"^0

h s*dfO b[e0我们知道,人工智能算法确实优于人类的预测,人工智能使用的工具更先进,遵循的规则更合理,错误率都比人类更低。心理学空间&th@4H u.Q.Y

"n rEb${y0研究人员说:“拒绝采用这些(优于人类)的算法会带来更高的成本。例如,很多人都不敢使用自动驾驶技术……尽管研究表明,自动驾驶系统挽救了成千上万人的生命。”

X+L!}7CTK$@0心理学空间K6Y dYMn


y"^ L$XPub0心理学空间T4xH5O\'hCS

心理学空间gC}$o2{oie

心理学空间,l.| Pg+G

4wy+I _5q+E5Zgq0

F cQN`dPTe Ai)m0拒绝人工智能是因为他几乎不犯错心理学空间6y1}H3E)f0^9^8\

心理学空间p+Jz#m pvv0?W K

那么,是什么阻止了人们对人工智能的接纳程度,反而偏爱人类自己的技能和本能?

\b,OI)d*I0

ey&m]!a X0研究人员认为,这其中的原因在于我们相信自己会对不确定的决定承担更多风险,我们不相信计算机会为我们承担这种风险。因为人工智能一旦犯错,他们的错误就更加的显眼,哪怕人工智能犯错的情况非常罕见。

sLp'`o+p#s@q0

o!S$y3o ?k*G{A0Dietvorst和Bharti在谈及相关的决策风险时说:心理学空间f^3P%EJe

V7I A)JtU0“我们建议人们逐渐降低预测误差的敏感性,即,渐渐不再挑剔预测的准确性,并且接受一定程度的误差。这会让人们偏爱那些近乎完美的方案(即,一个几乎没有错误的方法)。”

ly3|.K aP;f\0心理学空间O U6S]9xJ

“与之相反,当人们觉得算法不可能产生近乎完美的答案时,他们往往会选择风险更高、往往表现较差的决策方法(如人类判断)。”

"`+io"M+ww.I0心理学空间\qjpQ;H

研究人员通过9项实验发现:“人们觉得近乎完美的预测(可能产生的最好的预测,几乎没有误差)之间存在的主观差异更大,而误差较大的预测之间的主观差异却相对较小。”

]"iU KOwT u0

,D&}?#@1m Q%]p0也就是说,预测越是精确,人们越是需要更高的准确度;当误差较大时,反而会更能够马马虎虎的接受。心理学空间L9k&m s5GC)Cr}"G]

心理学空间H/dV2IB

研究结果显示,人们不太可能在难以预测的(随机或方程)领域中选择最佳的决策者,相反,他们自认为的近乎完美选择更可能来自于自己的喜好,而且选择结果有很大的差异。最终导致了人们在不确定的领域中选择那些风险更大、结果较差的决策者(例如人为判断)的倾向。心理学空间#@;\HAGM{ \

^9W3JNA|0A2J0研究人员总结说:“这些结果表明,说服人们在固有的不确定领域使用算法。并非意味着拿出更好的技术或出现更好的算法。”心理学空间G EJ&q`'H%bT$d3U

'[|/K)e8k*eV8M0这种拒绝人工智能的行为会带来巨大的影响,因为如果人们不愿意通过人工智能预测不确定性的话,这些领域就无法利用技术进步获得更多的收益。”

/f$i Is"Tcg0

&Y}0e}&V^W]0
[1]|5HVfKFc6A0

2e9e]{ e0心理学空间C"orz*i@ y

机器有道德吗?心理学空间n&Q;MXd]/Z

心理学空间X!AGoN

最近的另一篇文章探讨了无人驾驶的困境。心理学空间_ zYI#Q1}"vxe

心理学空间c!Imh ^xR^i

在这种困境中,自动驾驶的车辆必须在道路上做出高风险的道德决定,例如,应该伤害谁、拯救谁(例如行人或乘客)。心理学空间h O;` rkm

7T0~1j(^p0k)DYBbJ0Julian De Freitas等人认为,这些担忧会扰乱工程和政策决策。心理学空间e5y(dim?

心理学空间X'm;@8Ir3b1db

他说:”我们教人类如何开车时,不会让驾驶员被迫进行选择——不会告诉他应该杀了谁。这是因为计划一个不可能、无法察觉和无法控制的情况会扰乱我们训练新司机的目标——尽量减少伤害任何人。”

3g_6\6cifi5V0

5N%o7i2XDT iR~~!r0研究人员说,这样的目标同样适用于自动驾驶系统。

3|zv w+x)IK0K0www.psychspace.com心理学空间网
TAG: AI 人工智能 算法
«在网络上做真实的自己会更幸福 社会心理评论
《社会心理评论》
相对剥夺理论»