先前对算法建议的研究得出了相互矛盾的结果。多项研究表明,消费者反对算法建议,这种现象被称为算法厌恶。例如,Dietvorst 等人(2015)发现,在看到算法错误后,人们不太可能选择算法建议来预测学生表现,而不是较差的人类建议。在医学领域,学者们表明患者不信任算法建议(Promberger & Baron,2006),他们认为患者担心算法建议忽视了人类的独特性(Longoni 等人,2019)。类似地,Castelo 等人(2019)发现,直观、主观任务的算法厌恶程度高于可量化的客观任务。然而,Logg 等人(2019)的一项研究对算法厌恶提出了质疑。通过关注商业预测或浪漫吸引力预测等不同领域,他们发现人们通常更喜欢算法的建议,而不是人类的建议。Hildebrand 和 Bergner ( 2021 ) 表明,如果算法财务建议使用类似人类的对话风格,人们会更加欣赏它。总之,这些相互矛盾的结果表明存在其他可能影响算法建议采用的因素。其中一个因素可能是消费者对人工智能的非专业信念。尽管随着人们越来越频繁地使用人工智能服务,对人工智能的非专业信念在市场上似乎非常突出( Huang & Rust , 2018 ),但关于这种信念的研究却很少。也就是说,先前的研究为参与者提供了有关算法建议质量的具体信息,例如有关其错误的信息(例如, Dietvorst 等人, 2015 ; Longoni 等人, 2019 )。然而,在现实生活中,人们通常不会收到这种信息,也缺乏评估算法建议准确性的领域专业知识。因此,在决定是否使用算法建议时,他们可能会依赖更普遍的线索,例如他们对人工智能的非专业信念。在我们的研究中,我们希望解决这一差距,并指出消费者对人工智能与人类智能的智能程度有不同的看法。具体而言,我们认为对人工智能的非专业信念会影响算法建议的采用,因为它们可以作为推断建议准确性的线索,尤其是当感知到的任务复杂性很高时。在三项研究中,我们为这一预测提供了趋同的证据。通过这样做,我们为算法建议的研究做出了贡献,并指出在自动化建议服务时考虑消费者对人工智能的非专业信念的重要性。
8 木下健 长崎科学技术大学校长 东京大学名誉教授 9 佐藤胜明 东京农工大学名誉教授 10 佐藤千明 东京工业大学科学技术研究所副教授 11佐藤诚 东京工业大学名誉教授 12 谷冈明彦 东京工业大学名誉教授 13 中山智博 国家研究开发机构日本科学技术振兴机构研究开发战略中心企划管理室主任/研究员 14 花田修二 东北大学名誉教授 15 绿川胜美 日本理化学研究所光子工程中心主任 16 村口正宏 学部电气工程系教授17 东京理科大学工学部博士 17 森本正幸 东海原大学教授 18 山本英和 千叶工业大学工学部电气电子工程系教授 19 东京理科大学工学院机械工程系教授 山本诚 20 日本科学技术振兴机构创新研究开发推进项目项目经理 山本义久 21 横山健二 系教授东京工业大学应用生物学系应用生物学系 22 吉田雅之 公共投资杂志主编