摘要 维护决策错误可能导致代价高昂的问题。第四次工业革命为智能决策支持系统的开发和使用提供了新的机会。随着这些技术进步,人们关注的重点是更好地理解技术人员的知识与智能决策支持系统之间的联系。本研究报告的研究有两个主要目标。(1)提出一个将技术人员的知识与智能决策支持系统联系起来的理论模型,(2)提出一个如何应用该理论模型的用例。新模型的基础建立在决策支持文献中的两个主要研究流派之上:不同代理之间的知识“分配”和为实现共同目标而进行的知识“协作”。这项研究发现了两个主要差距:首先,必须更加关注技术人员的知识;其次,技术人员需要帮助来保持对大局的关注。我们使用认知契合理论和分布式态势感知理论提出了一种新的理论模型,称为“分布式协作意识模型”。该模型考虑了显性和隐性知识,并适应了操作级维护所涉及的动态挑战。作为该模型的应用,我们确定并推荐了基于增强现实的维护决策支持所需的一些技术发展。
许多人工智能系统设计师都在努力寻找最佳方法,以收集不同类型的训练数据。在线群体提供了一种廉价的按需情报来源,但他们往往缺乏许多领域所需的专业知识。专家提供隐性知识和更细致入微的输入,但他们更难招募。为了探索这种权衡,我们在设计基于文本的对话代理的背景下,比较了新手和专家在人类智能任务方面的表现和看法。我们开发了一个初步的聊天机器人,它模拟与寻求心理健康建议的人的对话,以帮助教育 7cups.com 的志愿听众。然后,我们招募了经验丰富的听众(领域专家)和 MTurk 新手工作者(群体工作者)来执行任务,以改进具有不同复杂程度的聊天机器人。新手群体在只需要自然语言理解的任务上的表现与专家相当,例如纠正系统对用户语句的分类方式。对于更具生成性的任务,例如创建新的聊天机器人对话,专家们表现出更高的质量、新颖性和情感。我们还发现了一个激励差距:众包工作者喜欢互动任务,而专家们则认为这项工作乏味且重复。我们提供了设计考虑,以分配众包工作者和专家完成 AI 系统的输入任务,并更好地激励专家参与 AI 的低级数据工作。
关于伊隆大学想象数字未来中心 想象数字未来是伊隆大学一项无党派的公益研究计划,重点关注数字革命的影响以及未来可能的发展。该中心成立于 2000 年,并于 2023 年扩建并更名。其使命是发现并广泛分享关于数字变革未来潜在影响的各种意见和想法,为重要对话和政策制定提供信息,并帮助促进人类的积极未来。该中心借鉴了通过广泛领域中深思熟虑和有远见的专家的调查收集到的见解。这些定性贡献与一系列方法相辅相成,包括民意调查、计算分析和其他数据驱动的研究。
本文件可能包含其所有者声明和/或注册的商标和/或商品名。除了标明属于 BSI 的商标和/或商品名外,BSI 不主张对这些商标和/或商品名的所有权,并且不授予使用或复制任何商标和/或商品名的权利。本文件中提及这些商标并不构成 BSI 对与这些商标相关的产品、服务或组织的认可。
欧盟及其成员国在应对恐怖主义威胁时在自由与安全之间取得平衡 引言 2001 年 9 月 11 日纽约和华盛顿遭受恐怖袭击一年多后,基本权利斗争独立专家网络认为有必要从这些措施与基本权利要求的兼容性角度,报告欧盟机构及其成员国为应对恐怖主义威胁所采取的所有措施。恐怖主义严重侵犯人权,因此必须予以打击。然而,恐怖主义的特点,特别是所涉侵犯人权行为的严重性、此类犯罪的有组织性及其国际性,已导致一些国家作出反应,而这些国家对基本权利的遵守情况有时值得怀疑;这些困难可归纳如下。1.无论是国际法律文书 1 还是 2002 年 6 月 13 日安理会关于打击恐怖主义的框架决定 2 ,都未能真正成功克服在试图对恐怖主义进行定义时遇到的传统困难,该定义描述了恐怖主义相对于其他形式的有组织犯罪及其所有可能形式的特殊性。但是,对恐怖主义罪行进行足够准确的定义不仅是特定起诉的先决条件,也是适用特定程序规则的先决条件,特别是在调查或侦查的背景下,对于特殊形式的拘留更是如此;否则,为打击恐怖主义而采取的措施将缺乏明确的法律依据,可能使其合法性受到质疑 3 。这一困难是本评论第 I 点的主题。2.恐怖主义和有组织犯罪的共同点在于,它们不是孤立个体的所为,而是犯罪组织的所为。此类犯罪的有组织性质意味着,各国倾向于将此类组织的成员身份定为犯罪,以个人与某些团体的关系为由对其提出指控,而不管这些个人是否可能参与实施其他犯罪,甚至可能不管是否已经实施了违法行为。这种趋势已经
本手册中包含的材料和内容均为专有。保留所有权利。错误、错印和更改均保留。内容版权所有 © Mach 2 - Aviation Experts。
DYCONEX AG 总部位于瑞士,是互连技术领域全球领先的高复杂度和高可靠性解决方案供应商之一。该公司起源于 1964 年成立的 Oerlikon-Contraves 部门,自 1991 年管理层收购以来一直担任 DYCONEX 职务。作为行业真正的先驱之一,DYCONEX 不断应用最新技术,为各个市场提供创新技术。
** Air III-第844/2012号Reg(EU)下的附件I续期; MRL第396/2005号法规第10条,第396/2005号法规(EC)第43条,ART 31授权是指(EC)第31条(EC)178/2002 ***第1章***第1节和第2条的氯洛龙和第2条是与平行的专业知识和专家有关。
医疗错误是结果,但如果没有对过去案件的艰苦审查,就难以研究。i应用算法工具来衡量最常见的医学评估之一中的错误程度和性质:胸部X射线解释。使用大型医院的匿名医疗记录,我将放射科医生关于心脏健康的主张与相同的机器学习预测进行了比较,并使用外源给予的血液测试在两者之间进行裁定。至少有58%的放射科医生会犯错误,发出的报告可以预见,这些报告误解了患者心脏健康的严重程度。纠正这些错误会将假阴性率降低23.5%,假阳性率降低了7.6%,而代表性不足和诊断不足的患者群体的准确性明确提高了。审慎的算法基准选择表明,大约三分之二的错误是可以解释的,因为个人放射科医生做出不一致的决策(表现不佳的“个人边界”),而三分之一反映了人类实践与算法预测之间的差距(A”机器边界)。与医学文献中的主要假设相比,错误并不能反映放射学家超重的显着信息;相反,它们系统地对患者风险的信号有系统地反应。在一起,这些结果表明,算法工具的比较强度在于它们的潜力减少人类判断的过多变异性。
人们认为AI在各个领域都具有专业知识,但是AI生成的道德专业知识的质量仍然不确定。最近的工作表明,大型语言模型(LLMS)在旨在评估道德一致性的任务上表现良好,以相对较高的精度反映了道德判断。由于LLM越来越多地在决策角色中使用,因此他们越来越期望他们不仅提供一致的判断,而且表现出合理的道德推理。在这里,我们推进了道德图灵测试的工作,发现美国人的道德建议比《纽约时报》受欢迎的咨询专栏《道德》(The Pollecicist)更具道德,值得信赖,周到和正确。参与者认为GPT模型既超过了美国人的代表性样本,又超过了著名的伦理学家提供道德理由和建议,这表明人们可能越来越多地将LLM的产出视为可行的道德专业知识来源。这项工作表明,人们可能会将LLMS视为对道德指导和决策中人类专业知识的有价值的补充。也强调了在LLMS中精心编程的道德准则的重要性,考虑到它们影响用户道德推理的潜力。