摘要 人工智能 (AI) 的纳入可以通过数据分析和战略规划建模改变企业竞争力。在本文中,我们证明企业 AI 纳入是文献支持的分阶段、发展、智能驱动的变革过程。确定了 AI 纳入可能为企业带来的好处:(1) 知识驱动的能力和能力整理,(2) 参与创新的数字深度学习,以及 (3) 强大的分阶段解释。这些 AI 作用效应最终联网、融合,并可以带来有益的变化,从而改变现有的企业竞争力定位。提出了一个具有 AI 反馈回路的 AI 交付框架,表明 AI 可以在全球工作场所提供竞争优势。关键词:人工智能、能力、能力、创造性知识、数字技术、创新、知识资本、企业 AI
人工智能 (AI) 在组织中的开发和部署越来越受到信息系统 (IS) 学科的关注。这可以从社会技术角度来处理,有助于管理人工智能的意外结果,同时扩展人工智能的使用范围。本文介绍了对组织成熟度和人工智能开发准备情况的系统文献综述的结果。这篇综述的一个重要发现是,现有的研究没有充分涵盖人工智能系统的人文和伦理方面。这是一个障碍,因为这些方面对于负责任地开发和部署人工智能以确保长期利益至关重要。根据文献综述的结果,我们从社会技术角度提供了一个人工智能成熟度矩阵和一个概念成熟度模型,该模型有两个主要维度(涵盖工具人工智能能力和负责任人工智能能力)、十二个条件和三十个因素。关键词:人工智能、成熟度模型、社会技术、责任、工具
制定这些培训指南是为了帮助培训经理和课程设计人员创建高效、有效的培训计划,以满足航空信息服务的运营要求。通过开发模块化格式的统一方法,这些指南提供了足够的灵活性,可以满足大多数 AIS 组织的培训需求。这些指南以共同核心内容和培训目标的形式呈现,为设计人员、讲师和学生提供了透明度。讲师可以自由创建自己的课程计划。提出了两个阶段的 AIS 培训。第 1 阶段是面向所有 AIS 学生的基础课程,无论目的地如何,主要以知识为基础。第 2 阶段遵循 CASP(通用 AIS 员工分析)小组开发的 AIS 功能,本质上是在职培训,包括课堂学习。它的方法更实用。本指南旨在作为工作文件,为详细培训计划奠定基础。
2000 年至 2006 年间发布的 NOTAM 数量在全球范围内增长了约 65%。NOTAM 被用于传达越来越多的航空变化,这给飞行员、管制员和其他 ATM 客户带来了沉重的负担,他们需要审查和综合数百条 NOTAM。一份提供给飞行员的 NOTAM 简报可能包含数百条 NOTAM:期望飞行员能够对所有 NOTAM 信息保持态势感知是不现实的。此外,分析表明,提供给飞行员的大多数 NOTAM 与他们的特定飞行无关。传统的 AIS 产品无法满足飞行员的需求,因为传统的 NOTAM 产品无法对飞行路线进行良好的过滤和分类。
abtract-当人工智能(AI)获得自我意识,代理和独特的智力时,它将获得本体论的人格。AI对公司的管理在技术上和经济上都是可行的。法律可以赋予法律人格的地位,就像过去对传统商业公司所做的那样,从而消除了将AI插入公司法律边界内的财产。作为一个独立的独特实体,AI可以独立作为经理工作,以法律或自然人的方式:即AI为董事,官员,合伙人,成员或经理。只有当AI作为经理创造的价值比AI作为工具或Android农奴所创造更多的价值时,这种未来才是可取的。法律人格的原则与机器人的想法本质上并不兼容。本文探讨了法律,政策和经济问题:我们可以在AI上授予法律人格吗?我们应该吗?
AIS-E 指标评估了 19 岁及以上患者按时接种流感、破伤风和白喉 (Td) 或破伤风、白喉和无细胞百日咳 (Tdap)、带状疱疹和肺炎球菌等疫苗的百分比。报告了四种比率:
IT项目的越来越多的失败导致有关这些项目当前管理方式的辩论,并搜索了有关项目管理的新概念和理论,以降低失败率。我们认为,重要的是要知道如何观察一个正在进行的IT项目,以便更好地理解危及的问题。因此,在没有拒绝以前的研究的情况下,我们的目的是提出一种可以提高我们对IT项目失败的理解的方法。我们通过证明将IT项目视为项目网络的价值来做到这一点。我们表明,在正在进行的项目中,可以将其项目成功或失败理解为沿融合和差异之间的连续体沿着连续性。我们提出了描述收敛或发散轨迹的四个特征。我们的分析是基于纵向案例研究,即法国教育区国家的IT项目的Pupitre Virtuel项目。沿连续性/发散的项目网络实体相互作用的动态观察强调很难隔离一个或几个失败因子。相反,我们的观察结果可以通过考虑随着时间的推移的相互作用的动态以及通过争议的实体重新定义来理解项目的演变。从这个角度来看,可以实时纠正项目轨迹,以避免其崩溃。
机器人和其他人工智能 (AI) 系统被广泛视为对其行为负责的道德主体。随着人工智能的普及,这些看法可能会通过对一个人工智能的态度对其他人工智能的态度的道德溢出而纠缠在一起。我们在两个预先注册的实验中测试了人工智能或人类主体看似有害和不道德的行为如何影响对其他人工智能或人类的态度。在研究 1 (N = 720) 中,我们通过表明不道德的行为增加了对主体(聊天机器人或人类助手)及其所属群体(所有聊天机器人或人类助手)的负面道德主体(即不道德行为)的归因并减少了对主体(聊天机器人或人类助手)及其所属群体(所有聊天机器人或人类助手)的积极道德主体(即道德行为)和道德耐心(即值得道德关注)的归因,建立了人机交互中的道德溢出效应。人工智能和人类环境之间的溢出效应没有显着差异。在研究 2(N = 684)中,我们测试了当代理被赋予一个名字并被描述为人工智能或人类,而不是具体描述为聊天机器人或个人助理时,溢出效应是否持续存在。我们发现溢出效应在人工智能环境中持续存在,但在人类环境中不存在,可能是因为人工智能由于其相对于人类的外群体地位而被认为更加同质化。这种不对称表明了一种双重标准,即当一个代理在道德上逾越时,人工智能会比人类受到更严厉的评判。随着多样化、自主的人工智能系统的激增,人机交互的研究和设计应该考虑到这样一个事实:对一种人工智能的体验很容易推广到对所有人工智能的看法,并产生负面的人机交互结果,例如信任度降低。
人工智能 (AI) 在全球企业中的应用越来越广泛。尽管该领域已有研究,但人们对采用因素和必要的 AI 规范知之甚少,而这些因素和规范可确保组织成功采用这项技术创新。本研究通过分析 AI 的采用过程填补了文献中的这一空白。本研究的概念框架基于技术-组织-环境 (TOE) 框架和创新传播理论 (DOI),用于从组织角度评估 AI 的采用过程。通过在澳大利亚对 18 位专家受访者进行半结构化访谈,对该概念框架进行了测试和验证,以了解其对 AI 采用过程的适用性。研究结果表明,相对优势、兼容性、高层管理支持、管理障碍、组织准备情况和政府监管支持是 AI 采用的重要决定因素。在学术贡献方面,本研究从组织的角度更好地理解了与采用 AI 有关的关键因素。实证结果进一步支持在组织层面使用 DOI 和 TOE 框架的适用性,以进一步了解 AI 的采用情况。就实际意义而言,本研究为澳大利亚组织提供了有关如何改进 AI 采用的相关建议。
摘要。人工智能的最新进展为企业、社会和个人带来了新的机会,但也提出了关于不公平权力分配的复杂问题。我们看到当代的人工智能系统加剧了权力不平衡,使边缘化、代表性不足和弱势群体处于不利地位。当前推进人工智能的方法,如道德、公平或值得信赖的人工智能,并没有将权力的影响纳入考虑范围。由于女权主义有着悠久的历史,我们引入了一种交叉和包容的女权主义方法,以更公平的方式塑造人工智能。我们通过最近的信息系统和跨学科研究以及我们在 2022 年和 2023 年进行的焦点小组专家访谈的证据来解决这个问题。我们的研究表明,利用女权主义方法首先可以有效地塑造人工智能系统,其次可以改变社会系统中现行的权力结构,使其变得更加公平。