摘要:目的:技术举措现已融入广泛的商业领域。本文的目的是探讨人工智能系统通过顾客偏好和行业基准的中介对企业家决策的可能影响。设计/方法/方法:这是一项非实证的文献综述和概念模型的开发。在主要学术数据库(如 Emerald 在线期刊、Taylor and Francis 在线期刊、JSTOR 在线期刊、Elsevier 在线期刊、IEEE Xplore 和开放存取期刊目录 (DOAJ))中搜索了专注于人工智能 (AI)、企业家决策、顾客偏好、行业基准和员工参与度的论文。总共有 25 篇文章符合预定义标准并被使用。结果:该研究提出,人工智能系统可以从企业家的角度促进更好的决策。此外,研究表明,员工作为利益相关者,可以通过参与来调节人工智能系统与企业家更好决策之间的关系。此外,研究表明,客户偏好和行业基准可以调节人工智能系统与企业家更好的决策之间的关系。研究的局限性/含义:本研究假设 ICT 环境完美,以保证人工智能系统的顺利运行。然而,情况可能并非总是如此。这项研究没有考虑企业家在 ICT 使用和采用方面的个人倾向。实际意义:本研究提出,企业家决策在人工智能系统的环境中得到丰富,并辅以客户偏好、行业基准和员工参与。这一发现为企业家提供了一种可能的技术工具,以便做出更好的决策,凸显了人工智能系统提供的无限选择。社会影响:在商业决策过程中引入人工智能会带来许多社会问题,这些问题与机器对人类和社会的影响有关。本文提出了如何在不破坏社会的情况下使用这项新技术。原创性/价值:这个概念框架是企业家发展的宝贵组织范围。此外,这项研究通过人工智能系统为企业家发展做出了宝贵的贡献。
在越来越多的情况下,人工智能算法必须模拟人类的(社会)偏好,并越来越多地代表人类做出决策。它们可以通过反复观察社交活动中的人类行为来学习这些偏好。在这样的背景下,当人们都知道他们的行为会通过算法的训练产生各种外部性时,个人会调整其行为的自私性还是亲社会性?在一个在线实验中,我们让参与者在独裁者游戏中的选择来训练算法。因此,它们对智能系统未来的决策产生了外部性,从而影响了未来的参与者。我们表明,那些意识到他们的训练对未来一代的回报的影响的人会表现得更加亲社会,但前提是他们承担着未来算法选择伤害自己的风险。在这种情况下,人工智能训练的外部性会导致当前平等决策的比例显著提高。
2009 年 10 月,不满情绪在欧盟理事会中逐渐蔓延。在此前的几个月里,欧盟理事会努力制定欧洲在人工智能 (AI) 问题上的立场,该立场将坚定地反映欧盟对基本权利的承诺。然而,当成员国准备就此事得出结论时,显然无法达成共识。一个成员国——波兰——提出了反对意见,其重点是结论草案中提到的“性别平等”。波兰代表认为,由于“性别”一词并未出现在《欧盟基本权利宪章》中,因此没有必要在人工智能的背景下提及它。 其他理事会成员强烈反对,但他们无法劝阻波兰改变立场。最终,德国理事会主席国得出结论,达成共识的努力失败了。别无选择的情况下,它采纳了主席国的结论,这些结论不需要成员国的一致同意,只是表达了主席国对此事的立场。对于新兴人工智能政策格局的观察者来说,上述事件是一个奇怪的异常现象。直到最近,在高层找到共同点
摘要:本文研究公众和企业对人工智能的态度,并研究影响这些态度的主要因素。概念模型基于技术-组织-环境(TOE)框架,并通过定性和定量数据分析进行测试。主要数据是通过专门为研究开发的问卷进行的公开调查以及对人工智能领域专家和各公司管理代表的半结构化访谈收集的。本研究旨在评估公众和各行业员工对人工智能的当前态度,并调查影响他们的因素。研究发现,不同行业对人工智能的态度存在显著差异。已经实施人工智能解决方案的组织的员工和近期不打算实施人工智能解决方案的组织的员工对人工智能的态度存在显著差异。影响组织采用人工智能的三个主要因素是高层管理人员的态度、竞争和法规。在确定影响社会和公司对人工智能态度的主要因素后,提出了减少各种负面因素的建议。作者提出了一个命题,证明了成功采用创新技术所需的活动。
摘要 基于人工智能的个人虚拟助理 (PVA) 经常用于私人环境,但尚未进入工作场所。无论其对组织的潜在价值如何,在工作场所持续实施 PVA 都可能遭到员工的抵制。要了解这种抵制的动机,有必要研究人类行为的主要动机,即情绪。本文揭示了与组织 PVA 使用相关的情绪,主要关注威胁情绪。为了实现我们的目标,我们进行了一项深入的定性研究,在焦点小组讨论和个人访谈中收集了 45 名员工的数据。我们根据 Beaudry 和 Pinsonneault (2010) 设计的情绪分类框架对情绪进行了识别和分类。我们的结果表明,损失情绪(例如不满和沮丧)以及威慑情绪(例如恐惧和担忧)构成了组织 PVA 使用界限的宝贵基石。
建议引用:Spreitzenbarth, Jan;Stuckenschmidt, Heiner;Bode, Christoph (2021):人工智能的现状:采购与销售和营销,收录于:Kersten, Wolfgang Ringle、Christian M. Blecker、Thorsten (Ed.):适应未来:数字化如何塑造可持续物流和弹性供应链管理。汉堡国际物流会议 (HICL) 论文集,第 31 卷,ISBN 978-3-7549-2770-0,epubli GmbH,柏林,第 223-243 页,https://doi.org/10.15480/882.3990
人工智能 (AI) 是一种变革性的力量,正在(重新)塑造市场营销研究、战略和行动,可以概念化为“使用计算机器来模拟人类固有的能力,例如执行物理或机械任务、思考和感觉” (Huang & Rust, 2021 , p.31)。随着人工智能及其智能水平的稳步发展,人工智能的情感和社交能力以及人性化程度也有望提高。人工智能应用包括智能个人/数字助理(如 Siri 或 Alexa)、聊天机器人和服务机器人,已经具备人类的形态、名称和品质,例如人类的语音和交互以及情感感知能力(例如,Huang & Rust, 2021 ; Ramadan et al., 2021 ; Wan & Chen, 2021 )。将类似人类的属性和特征赋予非人类主体和物体,是拟人化的核心(Epley 等人,2007 年)。拟人化
工业 4.0 技术的发展为制造企业的数字化转型创造了空间,这些企业的业务模式越来越依赖于软件和基于数据的服务。虽然一些研究强调制造业别无选择,只能遵循这种转型,但对于企业如何实际管理这种转型,我们知之甚少。本文以一家领先的机械工程公司为例,分析该公司如何组织新数字技术的开发,以及如何改变其组织结构和实践。它基于 22 次访谈和对公司文件的分析。该分析借鉴了双元理论,并扩展到动态过程分析。它表明,数字化转型以支持跨职能合作的结构和实践的发展以及新技能形成方法的创造为前提。开发了与制造企业数字化转型相关的组织变革模型,包括概念验证阶段、部分开发阶段和组织转型阶段。
摘要:人工智能相关技术正在迅速发展。因此,人工智能正在应用于生活的许多领域,并日益影响社会的运作。人工智能的行为可能会造成伤害(例如,自动驾驶汽车造成交通事故)。民法规则,特别是有关因某人的过错或风险造成的损害责任的规则,是在人工智能发明之前,主要是在人工智能最近取得重大发展之前就已经存在了。其中包括《波兰民事诉讼法》,该法解决了与责任相关的问题,该法于 1964 年通过,至今仍然有效,尽管有一些修订。因此,波兰民法中没有引入任何直接涉及人工智能及其行为的法律后果的条款。欧洲法律也是如此。因此,需要分析现有法规是否可以适用于人工智能,或者是否应该对其进行适当调整。这种分析的出发点是赋予人工智能法律实体地位的可能性,使其能够独立承担其造成的损害的责任。这个问题需要在当今使用的技术(例如自动驾驶汽车)的背景下进行研究,也需要在将来进行研究。本文进行的分析明确了谁将对人工智能的行为承担责任。该领域的审议基于波兰和欧洲法律科学的成就。因此,本文关于立法变化的结论适用于所有以欧洲民法原则为基础的国家法律秩序。
本文表达的任何观点均为作者观点,而非 IZA 观点。本系列中发表的研究可能包括对政策的看法,但 IZA 不代表任何机构政策立场。IZA 研究网络致力于遵守 IZA 研究诚信指导原则。IZA 劳动经济研究所是一家独立的经济研究机构,开展劳动经济学研究,并针对劳动力市场问题提供基于证据的政策建议。在德国邮政基金会的支持下,IZA 运营着世界上最大的经济学家网络,其研究旨在为我们这个时代的全球劳动力市场挑战提供答案。我们的主要目标是在学术研究、政策制定者和社会之间架起桥梁。IZA 讨论文件通常代表初步工作,并被分发以鼓励讨论。引用此类论文时应说明其临时性。修订版本可直接从作者处获得。
