随着人工智能辅助决策的普及,一个比经典问题“三个臭皮匠顶个诸葛亮”更有意义的问题是,在人工智能辅助决策中,群体的行为和表现与个人相比如何。在本文中,我们进行了一个案例研究,从决策准确性和信心、依赖人工智能的适当性、对人工智能的理解、决策公平性和承担责任的意愿六个方面比较了群体和个人在人机协作再犯风险评估中的表现。我们的研究结果表明,与个人相比,群体更多地依赖人工智能模型,而不管其正确性如何,但当他们推翻错误的人工智能建议时,他们会更有信心。我们还发现,根据准确性平等标准,群体比个人做出的决策更公平,并且当人工智能做出正确的决策时,群体愿意给予人工智能更多的信任。最后,我们讨论了我们工作的影响。
决定如何向学生明确教授替代行为。为学生使用替代行为所需的其他技能也需要教授。可能需要教的技能的例子包括学术技能,社交技能,沟通技巧和组织技能。在学生镇定并为学生提供练习和接收反馈的多个机会时,使用替代行为进行练习很重要。还需要教导学生何时使用替代行为。
前言 近一个世纪以来,行为科学或社会科学一直是公认的学科领域。在此期间,心理学家和其他社会科学家就与人类和动物行为有关的广泛主题撰写了数百万字的论文,内容涉及思想、感觉、动机、态度、感知、学习、焦虑和攻击性等。然而,在这些已发表的文献中,只有一小部分着重探讨了人们如何应对危险并试图应对危险。涉及该主题的研究往往是由主要兴趣在其他地方的研究人员进行的,他们目前只在自己选择的领域之外进行了短暂的探索。这导致了基于众多理论的零散文献,这些理论之间的相互关系很难解开。表面上的矛盾比比皆是,我们知识上的空白仍然很大,令人沮丧。因此,健康和安全从业者经常对试图从文献中提取任何合理的结论和建议感到绝望。尽管人们普遍认为人为因素是导致该领域问题的主要因素,但它仍然是一个未知领域,经常被认为是无望的琐事和难以理解的术语的混合体。希望很高,但期望很低。作为心理学家、研究人员、教师和健康与安全从业者,我们试图在这本书中解决这两个问题。我们的