• 对使用 Tactiq AI 进行会议总结的积极反馈 • 关于在学术成功中心 (ASC) 使用 AI 资源进行辅导和写作辅助的讨论 • 提到在春季学期初为学生导师和 ASC 员工举办 AI 研讨会的可能性——学生导师通常在开课第一周确定 • 关于使用 AI 改进写作实验室流程的讨论 • 对学生计算机素养的担忧以及使用适合移动设备的 AI 资源的建议 • 计划于 11 月为艺术与科学学院安排两个单独的研讨会——Jeff 将与 Tammy Fergurson 交谈 • 关于负责任地使用 AI 的修订教学大纲声明仅收到更改“隐性”一词的建议,可以转发给教务长以纳入春季教学大纲 • 关于使用 AI 工具识别抄袭的讨论,使用讲师的最佳判断,而不是仅仅依赖 AI 检测工具
摘要:在拥挤的终端环境(例如繁忙的商业机场)中操作无人机系统 (UAS) 的需求日益增加。这种需求给飞行员带来了挑战。为了确定这些挑战,我们对飞行员进行了关键决策方法 (CDM) 访谈。CDM 是一种认知任务分析方法,旨在揭示隐性认知挑战。采访了来自美国的八名飞行员,其中包括四名 UAS 飞行员和四名商业飞行员。使用主题分析法对访谈进行了分析,结果确定了四类认知挑战:(i)注意异常,(ii)诊断自动化行为,(iii)了解何时以及如何干预,以及(iv)与空中交通管制协调。在本文中,我们描述了每个挑战,重点介绍了我们采访中的真实案例,并针对在拥挤的终端空域中整合 UAS 的影响提出了一些建议。
比以往任何时候都更加紧急地需要新的科学知识,以应对气候变化,可持续性,健康和社会福祉等全球挑战。人工智能(AI)可以加速科学以及时应对这些全球挑战吗?AI已经在彻底改变了个人科学学科,但是我们在这里认为这可能是更全面的和包容的。我们将虚拟实验室的概念介绍为科学知识产生的新观点,并激励新的AI研究和发展。尽管经常有特定于领域的研究实践和固有的隐性知识,但我们认为,研究过程的许多要素跨科学领域复发,即使是用于为不同领域服务的通用软件平台也是可能的。我们概述了虚拟实验室如何使AI研究人员更容易为广泛的科学领域做出贡献,并强调虚拟实验室为AI和域科学家提供的共同利益。
航空航天业的例子说明了当组织用技术取代从经验中学习时可能产生的后果,这一过程被称为认知卸载策略 (COS)。例子包括涉及空客 330-203 的法航 447 航班坠毁事件和涉及波音 737 Max 的狮航 610 航班坠毁事件。从极端环境中的人类表现的角度来看,COS 代表了组织脆弱性的一个未被充分探索的来源,这对组织的学习提出了特殊的挑战。学习的减少是由 COS 造成的,因为 COS 造成了程序知识的空白,并剥夺了操作员在面对事件引起的压力时学习的机会。由于 COS 在极端环境中的不可避免性,建立复原力的建议包括提供支持发展积极压力反应的培训场景、促进面对不确定性的学习能力,以及支持高度参与的体验式学习以建立程序性(通常是隐性的)运营知识。
结论 1 。人工智能可能具有外来内容和外来元语义。结论 2 。即使他们确实如此,我们也可以找到与它们交流的方法。结论 3 。认真考虑这些选择对于清晰思考生存风险、价值观一致问题和可解释的人工智能等问题至关重要。本文(以及 Cappelen 和 Dever 2021)的一个更大目标是说明语言哲学中熟悉的工作如何与理解人工智能、我们与人工智能的互动、可解释的人工智能和可解释的人工智能的核心问题直接相关。对人工智能及其表征能力的思考几乎完全脱离了过去 30 年语言哲学和元语义学的发展。一个默认的假设是,我们对人工智能表征和交流能力的理解最好留给计算机科学家和那些受过相关软件构建培训的人。1 本文提出的问题表明,哲学参与具有巨大的潜力。我们在最后一部分简要说明了潜在的回报,并讨论了生存风险、价值一致性问题和可解释的人工智能。
基于人工智能的自然语言处理 (NLP) 使用语言学和机器学习来理解、解释和产生人类风格的语言。OpenAI 的 chatGPT 是聊天框格式的 NLP 的一个特殊应用,使用户能够与人工智能进行对话。此外,人工智能可以执行复杂的语言处理任务,例如文本生成、语言翻译,甚至回答问题。然而,由于人工智能使用的训练数据和其解释隐性知识的能力有限,它也存在一些局限性。基于训练数据的质量,人工智能经常犯事实错误并产生有偏见的结果。此外,它缺乏对人类语言细微差别的透彻掌握以及对物理和社会世界的理解。例如,当有人问 chatGPT “树枝上有五只鸟。如果你把其中一只从树枝上射下来,树枝上还剩下多少只?”时,它回答“四只鸟”,没有理解剩下的四只鸟会飞走。尽管存在这些关键的缺点,但人工智能为定性研究人员提供了许多好处。
结论 1。人工智能可能具有外来内容和外来元语义。结论 2。即使他们确实如此,我们也可以找到与他们交流的方法。结论 3。认真考虑这些选择对于清晰思考生存风险、价值取向问题和可解释的人工智能等问题至关重要。本文(以及 Cappelen 和 Dever 2021)的一个更大目标是说明语言哲学中熟悉的工作如何与理解围绕人工智能、我们与人工智能的互动、可解释的人工智能和可解释的人工智能的核心问题直接相关。对人工智能及其表征能力的思考或多或少完全脱离了过去 30 年语言哲学和元语义学的发展。一个默认的假设是,我们对人工智能的表征和交流能力的理解最好留给计算机科学家和那些受过相关软件开发培训的人。1 本文提出的问题表明,哲学参与具有巨大的潜力。我们将在最后一节中简要说明潜在的回报,并讨论生存风险、价值一致性问题和可解释的人工智能。
摘要 - 本文从知识创造和知识转移的角度讨论了人工智能在营销中的陷阱和机遇。首先,我们讨论了区分人工智能应用和传统建模方法的“高阶学习”概念,在关注深度神经网络的最新进展的同时,我们介绍了其底层方法(多层感知器、卷积和循环神经网络)和学习范式(监督、无监督和强化学习)。其次,我们讨论了营销经理在其组织中实施人工智能时需要注意的技术陷阱和危险,包括目标函数定义不明确、不安全或不切实际的学习环境、有偏见的人工智能、可解释的人工智能和可控制的人工智能等概念。第三,人工智能将对可以自动化且几乎不需要可解释性的预测任务产生深远影响,我们预测,如果我们不解决人工智能模型和营销组织之间隐性知识转移的挑战,人工智能将在许多营销领域无法兑现其承诺。
竞争优势是指公司从独特的财产组合到表现优于竞争者所带来的好处。为了建立竞争优势作为卓越绩效的门户,公司追求各种有益的战略取向。本研究试图确定成本领导策略是否在肯尼亚的牛奶加工公司中获得了竞争优势。作者利用规模经济,范围经济和运营效率的经济指标来运行成本领导策略,而竞争优势是通过能力和知识实现的。对所有牛奶加工公司的人口普查进行了一次人口普查,其中148名受访者参加了这项研究。使用半结构化自我管理问卷收集数据,并随后使用描述性和推论统计数据进行了分析。该研究得出结论,成本领导策略是牛奶加工商的竞争优势的来源。因此,它建议追求成本领导策略作为竞争工具。进一步建议建立相关能力并保护公司作为竞争优势的基础障碍。
我们描述了一项关于紧急通信中心工作协调的观察性研究,该中心的通信专家共置团队从事与院前医疗团队沟通以及协调患者护理和运输的复杂活动。与为提高工作效率和减少冗余而引入的具有明确工作角色和团队结构的团队不同,我们研究的团队缺乏角色区分。为了更好地了解在这些条件下如何完成复杂的工作,我们在中心的控制室进行了现场观察并采访了通信专家。我们发现,通信专家通过使用物质和非物质协调机制的混合来进行自组织,包括工作时间表、计算机系统和默契来协调任务。利用这些发现,我们随后确定了需要技术支持的自组织、共置和时间紧迫的团队合作的三个特征:任务所有权意识、任务自我分配和非正式团队层级。最后,我们讨论了支持这些团队合作特征的技术要求。
