摘要人工智能中的快速和前所未有的增长,特别是在生成人工智能(Genai)中,对我们日常生活的各个方面产生了深远的影响,包括我们执行任务和在工作场所中分享知识的方式。尽管对这些AI工具提供的生产率提高了生产率以及围绕其使用的道德问题的实质性研究,但生成AI对员工知识转移的特定影响仍然没有得到充实的影响。知识转移是组织成功的关键方面,涵盖了专业知识和信息的共享。这项研究通过研究如何增加对生成AI工具的依赖来重塑传统知识交流方式,从而解决了文献中的差距。通过对经常在工作中使用生成AI的员工进行半结构化访谈,本研究旨在更深入地了解知识转移过程的变化。关注的关键领域包括AI工具如何增强或替换人类到人类知识共享,过度依赖AI生成的信息的潜力以及对组织学习和协作的影响。这项研究使用了一种定性方法,并找到了两组机制,通过这些方法依赖Genai会影响知识传递:支持机制和限制机制。支持机制包括提高生产率和便利性,从而通过移动知识来源和促进外部化来增强知识转移。这项研究有助于理解Genai在知识转移过程中的双重作用。另一方面,限制机制突出了Genai在同事互动方面的便利驱动的降低的协作和社会化。调查结果表明,尽管Genai可以使知识转移受益,但过度依赖可能会阻碍批判性思维,创造力和共享知识的质量。关键字:生成AI,知识转移,过度依赖,协作,社会化,知识转移过程。
他们也经历了更少的违法行为,并且不太可能申请失业保险福利。降低对信用和保险的依赖允许工人避免潜在的负面后果,例如由于依赖失业保险计划而导致债务陷阱并减少工作动机的过度借贷。
用户和机器学习专家的整合是艺术智能文献中广泛研究的主题。同样,人类计算机相互作用研究广泛探讨了影响AI作为决策支持系统的因素。在这项实验研究中,我们调查了用户对专家在此类系统开发中整合的偏好,以及这如何影响他们对这些系统的依赖。具体来说,我们专注于特征选择的过程,这是由于机器学习模型对透明度的不断增长而变得重要的元素。我们区分了三种特征选择方法:基于算法,基于专家的方法和一种组合方法。在第一次治疗中,我们分析了用户对这些方法的偏爱。在第二次治疗中,我们将用户随机分配给三种方法之一,并分析该方法是否影响建议依赖。用户预先使用合并的方法,然后是基于专家的和基于算法的方法。但是,第二种处理中的用户同样依赖于所有方法。因此,我们发现所陈述的偏好和实际用法之间存在显着差异,从而揭示了态度 - 行为差距。允许用户选择自己的首选方法没有效果,偏好和依赖程度是特定的。这些发现强调了理解AI支持决策中认知过程的重要性,以及在人类互动中进行行为实验的需求。
国内 OEM 销售 汽车零部件行业对 OEM 的销售额预计将从 2024 年的 620 亿美元增长到 2030 年的 890 亿美元。随着消费者收入的增加和城市化推动对乘用车 (PV) 和轻型商用车 (LCV) 的需求,新车销量强劲增长为这一增长提供了支撑。3 电动汽车 (EV) 等替代动力系统的出现将进一步刺激对专用零部件的需求。此外,汽车软件和电子产品的进步将在增强车辆功能方面发挥关键作用,预计将向区域电气/电子 (E/E) 架构转变。
收到日期 2024 年 2 月 16 日 接受日期:2024 年 7 月 18 日 发表日期:2024 年 7 月 28 日 摘要 生活各个方面的技术进步导致人工智能融入教育实践。学生对人工智能辅助工具的使用在学术环境中变得更加重要,这形成了一系列积极和消极的观点。本研究探讨了人工智能辅助工具对学生整体个人和学业成绩的影响。因此,这篇文章意义重大,因为它评估了摩洛哥高中生如何使用人工智能辅助工具来解决他们的家庭作业。该研究试图回答这些学生在多大程度上依赖这些工具,并研究教师对人工智能给课堂带来的这些不断变化的影响的态度和担忧。本研究采用混合方法实现研究目标,同时采用定量和定性方法。因此,研究结果表明,学生严重依赖人工智能来完成日常家庭作业任务,这阻碍了他们的学习过程和技能习得。这些研究结果为政策制定者、家长、教育工作者和学习者提供了几项建议,要求他们意识到过度使用人工智能辅助工具对学生学习成果的不利影响。关键词:学业成绩、人工智能、辅助工具、过度依赖、高中生、家庭作业、个人发展 引用为:Tamimi, J., Addichane, F., & Madani, S. A.(2024).评估人工智能家庭作业辅助工具对高中生学业成绩和个人发展的影响。阿拉伯世界英语杂志 (AWEJ) CALL 特刊 (10)。36-42。 https://dx.doi.org/10.24093/awej/call10.3
Nurul Akmal 阿曼苏丹国佐法尔大学艺术与应用科学学院计算机科学系 收稿日期:2023 年 11 月 13 日 接受日期:2024 年 3 月 14 日 发表日期:2024 年 4 月 24 日 摘要 本研究考察了教师、学生和行政人员对 ChatGPT 在阿曼教育环境中的作用的看法。这项研究意义重大,因为它深入了解了人工智能在教育中的应用程度,并为未来计划提供了指导。考察阿曼教育环境中各利益相关者的看法,为热衷于拥抱新技术同时又坚持传统教育价值观的高等教育机构提供了宝贵的信息。该研究利用焦点小组讨论收集了教师、学生和行政人员的数据。研究结果表明,ChatGPT 的关键作用在于完善内容,尤其是对于非英语母语的学生、行政人员和教师而言。行政人员和教师强调了其在起草电子邮件方面的功效,表明人工智能具有改善日常认知任务的潜力。学生们对 ChatGPT 解释复杂学术任务的能力表示赞赏。然而,教师们对过度依赖人工智能和可能丧失学术诚信的担忧浮现,这与之前的文献产生了共鸣。这些发现与阿曼独特的社会文化和教育背景有关。鉴于人工智能在阿曼教育中的新兴性质,该研究提供的见解为未来的研究奠定了基础并指导了政策制定。关键词:人工智能、阿曼教育、教学、学习引用为:Syahrin, S. & Akmal, N. (2024)。探索人工智能前沿:阿曼苏丹国教师、学生和行政人员对人工智能在教育中的作用的看法。阿拉伯世界英语杂志 (AWEJ) ChatGPT 特刊,2024 年 4 月:73-89。 DOI: https://dx.doi.org/10.24093/awej/ChatGPT.4
高中生对人工智能聊天机器人在英语学习中使用的看法:好处、顾虑和道德考虑 Ji Eun Lee 和 Unkyoung Maeng Lee, JE, & Maeng, U. (2023)。高中生对人工智能聊天机器人在英语学习中使用的看法:好处、顾虑和道德考虑。泛太平洋应用语言学协会杂志,27 (2),53–72。本研究探讨了高中生对在英语学习中使用人工智能聊天机器人的看法。具体来说,它旨在衡量聊天机器人使用的广度,并辨别与其使用相关的潜在挑战的看法。来自一所高中的 30 名学生参加了调查。数据分析涉及频率、平均值和独立样本 t 检验。研究结果如下。首先,学生高度认可聊天机器人的重要性和价值,并对其可用性给予了积极评价。然而,他们之前使用聊天机器人的经验并没有影响这种看法。第二,学生认为在英语学习中使用聊天机器人非常有益。特别是,那些有聊天机器人使用经验的人比没有经验的人有更积极的看法。第三,学生相对意识到使用聊天机器人的潜在道德问题。无论他们是否有使用聊天机器人的经验,他们都特别担心抄袭和版权问题以及潜在的个人信息泄露。他们还意识到了潜在的教育问题,担心过度依赖聊天机器人可能会阻碍他们的探索性学习或导致直接抄袭作业,错失学习机会。然而,没有经验的人比有经验的人更持怀疑态度。本文还讨论了从这些发现中得出的含义和建议。关键词:人工智能聊天机器人、感知、教育用途、道德问题 1 引言 第四次工业革命开启了一个多种技术融合和快速发展的时代。值得注意的是,人工智能的引入不仅有望在制造业、经济和医疗保健等行业取得重大潜在进步,而且还在不断增加
透明度被广泛认为对于人工智能 (AI) 在现实世界中的负责任部署至关重要,也是建立对 AI 的信任的必要先决条件。实现透明度的方法有很多种,其中一种很有前途的尝试是以人为本的解释。然而,很少有研究关注以人为本的解释对最终用户信任的有效性。现有实证研究的比较之所以复杂,是因为信任的衡量方式不同。一些研究人员使用问卷来衡量主观信任,而另一些研究人员则衡量客观的信任相关行为,如依赖。为了弥合这些差距,我们研究了两种有前途的以人为本的事后解释——特征重要性和反事实——对信任和依赖的影响。我们在决策实验 (N = 380) 中将这两种解释与控制条件进行了比较。结果表明,以人为本的解释可以显著增加依赖性,但决策类型(提高价格还是降低价格)的影响更大。这挑战了透明度在涉及人工智能的人类决策中相对于其他因素(例如潜在的启发式和偏见)的假定重要性。我们得出结论,信任并不一定等同于依赖,并强调了适当、经过验证和商定的指标对于设计和评估以人为本的人工智能的重要性。
* 香港中文大学法律学院教授,香港新界。非常感谢 Laurence Boisson de Chazournes、Benoit Mayer、Bryan Mercurio、Bryan Druzin、Qian Wang 和 Ryan Mitchell 对早期草案的评论。1 欧洲理事会结论(2022 年 3 月 24 日至 25 日),网址为 https://data.consilium.europa.eu/doc/docu- ment/ST-1-2022-INIT/en/pdf。2 关于对俄罗斯第六套制裁措施的问题和答案(2022 年 6 月 3 日),网址为 https://ec.europa. eu/commission/presscorner/detail/en/QANDA_22_2823。 3 委员会致欧洲议会、欧洲理事会、欧洲理事会、欧洲经济委员会和地区委员会的通报:REPowerEU 计划,第 20 页,COM/2022/230 final (2022 年 5 月 18 日),网址为 https://eur-lex.europa.eu/legal-content/EN/TXT/?uri¼COM:2022:230:FIN。4 例如,请参阅 David Sheppard、Tom Wilson、Guy Chazan 和 Roman Olearchyk 的《俄罗斯减少对德国和意大利的天然气出口以“政治”举措》,FIN.T IMES (2022 年 6 月 15 日),网址为 https://www.ft.com/content/1e972cf5-f42b-4ed8-b81b-6969dd91ccfd; Marek Strzelecki、Tsvetelia Tsolova 和 Pavel Polityuk,《俄罗斯暂停向波兰和保加利亚供应天然气》,《欧盟通讯社》(2022 年 4 月 28 日),网址:https://www.reuters.com/world/poland-bulgaria-
摘要 人工智能 (AI) 正在改变医疗保健和医学实践,因为数据驱动的科学和机器学习技术尤其有助于各种医疗和临床任务。这些进步也引发了许多问题,尤其是关于公众信任的问题。为了应对这些问题,公共机构、政策制定者和引领人工智能发展的科技公司一直在集中精力解决所谓的“公众信任赤字”。本文认为,将信任作为这项新技术与公众之间建立关系的基础,在最好的情况下是无效的,在最坏的情况下是不恰当的甚至是危险的,因为它会分散人们对积极保证信任真正需要的东西的注意力。我们认为,与其为如何促进信任而苦恼,这种关系可能会让信任者变得脆弱和暴露,不如将精力集中在确保由强有力的法律和监管框架支持的依赖这一艰难而动态的过程上。从那里,信任可以出现,但不仅仅是一种达到目的的手段。相反,信任是实践中需要努力实现的目标;也就是说,这是持续的道德关系应有的结果,在这种关系中,有适当的、可执行的和可靠的监管基础设施,以便不断地解释和适当纠正问题、挑战和权力不对称。
