Alok Reddy Jakkula 信息技术学士学生 摘要 本文深入探讨了人工智能 (AI) 在电子商务领域迅速扩大的作用,强调了随着这一技术进步而出现的紧迫的道德考虑。随着机器学习算法、聊天机器人和预测分析等人工智能技术成为增强客户体验、简化库存管理和改进个性化营销策略不可或缺的一部分,它们也引发了关键的道德问题。这些问题包括数据隐私、知情同意、算法偏见以及人工智能驱动决策的透明度需求。随着数字市场的发展,正面应对这些道德挑战的必要性对于确保人工智能在电子商务中的可持续整合至关重要。这项研究不仅旨在剖析这些关键的道德问题,而且还提出可行的框架和最佳实践。这些准则旨在促进人工智能技术在电子商务运营中的道德整合,从而营造一个信任、公平和尊重消费者权利的环境。 关键词 人工智能 (AI)、道德考虑、人工智能技术、电子商务。
摘要:随着人工智能(AI)处理高度复杂任务的能力越来越强,许多支持人工智能的产品和服务被赋予了更高的决策自主权,可能对个人和社会产生不同的影响。虽然组织和研究人员一再表明人工智能对人类的祝福,但严重的人工智能相关滥用和事件引发了紧迫的伦理问题。因此,不同学科的研究人员广泛承认有关人工智能的伦理讨论。然而,管理者渴望在整个组织中激发伦理考虑,但在如何建立和管理人工智能伦理方面却得到有限的支持。虽然研究关注的是组织中的技术相关伦理,但对人工智能伦理管理的研究却有限。在此背景下,本文的目标是为人工智能相关伦理问题的研究提供一个起点,并强调未来的研究机会。我们提出了人工智能伦理管理 (EMMA) 框架,重点关注三个方面:管理决策、伦理考量以及宏观和微观环境维度。通过 EMMA 框架,我们为研究人员提供了一个起点来解决人工智能伦理方面的管理问题。
如果团队无法根据社区利益相关者的意见采取行动,无法获得开展公众参与的额外资源,也无法让更多多元化、多学科的工作人员参与进来,那么他们可能无法大幅改变工作完成方式,也无法提高组织减轻未来危害的能力。在没有社区成员直接参与决策和方向制定的情况下,那些担任公众联络员的工作人员应该被赋予权力,并有权为社区的利益行事。如果没有这一点,任何公众参与活动都很有可能被解读为“参与者清洗”,因为公众的意见将被认为对最终产品或服务几乎没有影响。
过去在作业上的表现,以确定他们是否会从支架和额外的情境指导中受益,这些指导由 Actively Learn 内容作者精心编写并嵌入到文本中。启用此功能后,学生将获得有针对性的帮助,这些帮助将根据他们整个学年的表现进行调整。教育工作者可以选择是手动调整个别学生的支架,还是启用此自动功能,从而消除了在监控学生进度的同时必须更新课堂设置的心理负担。
对人工智能系统的担忧之一就是拥护“道德人工智能”,即阐明道德规范,然后强加法律要求,要求人工智能系统符合这些规范。但这会起作用吗?更准确地说,是否存在一种有效的程序,通过该程序,人工智能系统开发者或监管者可以提前确定人工智能系统一旦投入运行,是否会持续产生符合所需道德规范的输出?本文的答案是“不”。停机问题表明,没有一种算法可以可靠地为运行任何允许输入的所有人工智能系统做到这一点。可以决定某些运行某些输入的人工智能系统的合规性,但并非总是如此。当计算方法失败时,法律系统可以“填补空白”吗?本文表明,至少到目前为止,这种可能性并不积极。关于哪些法律规则应该评估人工智能系统的使用或滥用的责任,以及这些规则在具体案件中应该如何运作,存在一些问题。当前的法律提案本身可能不符合可解释性的道德规范。当与不受任何道德规范约束的人工智能超级智能相比时,无效性成为一个问题。
当前世界人口增长趋势呈现大幅上升趋势,仅在 20 世纪就从 16.5 亿跃升至 70 多亿。人口快速增长造成了人口过剩这一不良状况,对人类产生了多方面影响。按照这个速度,到本世纪末,地球的承载能力将超过其承载能力,至少地球无法满足人类的消费需求(Pengraa,2012 年)。人类必须一致同意妥善管理其资源或寻找新资源来支持人口持续增长。据科学家称,地球的承载能力存在固定限制,包括淡水供应有限、天然矿物和元素有限、石油和天然气等能源以及粮食资源有限(Wilson,2005 年)。如果地球的粮食生产能力达到最大限度,那么资源将为 100 亿人提供足够的粮食 (Wilson, 2005)。然而,这需要每个人都同意成为素食主义者,而考虑到仅在美国,2012 年就消费了 522 亿磅肉类 (Barclay, 2012),这极不可能实现。
道德有时被认为过于抽象,无法在人工智能 (AI) 中有意义地实施。在本文中,我们反思了以前被认为非常抽象的计算的其他方面。然而,现在人们认为计算机可以很好地完成这些任务。这些任务涉及软件工程的多个方面,包括数学,以及与人类进行自然语言对话。这是通过自动化最简单的步骤,然后在此基础上执行更复杂的任务来实现的。我们想知道道德 AI 是否可以以类似的方式实现,并提倡将自动化过程作为让 AI 做出道德决策的关键步骤。本文的主要贡献是反思如何将自动化引入以前被认为对计算机来说过于抽象的领域。
摘要:本研究探索人工智能 (AI) 造福社会的领域,特别强调其在社会福利和服务提供中的应用。该研究旨在建立一个通用的概念框架,以合乎道德的方式将人工智能融入社会服务部门,认识到该部门在人工智能应用方面具有巨大但尚未得到充分开发的潜力。目标是制定一个适用于人工智能在社会服务中的道德部署的综合框架,并以立陶宛为例来说明其实用性。这涉及分析有关人工智能的政治话语,研究其在社会福利中的应用,确定道德挑战,评估立陶宛公共服务的数字化进程,并制定在提供社会服务的各个阶段整合人工智能的指导方针。我们的方法植根于文档分析,包括对与人工智能在社会福利中的道德应用相关的规范和科学文献的全面审查。主要发现表明,正如政治宣言中所强调的那样,人工智能对不同社会和经济领域的预期积极影响正在部分实现,科学研究证实了这一点。尽管人工智能在社会福利领域的全球应用正在扩大,但立陶宛在这方面存在战略规划差距,这是一个独特的案例。开发的概念框架为人工智能系统的道德实施提供了重要标准,旨在普遍适用于社会服务的各个阶段,适应不同的人工智能应用、客户群体和机构环境。关键词:人工智能、社会服务、道德、创新
随着机器翻译 (MT) 的普及以及翻译文本准备和后期编辑等子任务的产生,人工智能 (AI) 和机器学习技术已经对语言中介市场产生了影响。到目前为止,机器口译对口译行业的影响还没有机器翻译对翻译行业的影响那么大。然而,技术进步并未结束,如今全自动机器翻译和基于人工智能的计算机辅助口译 (CAI) 工具在口译行业越来越普遍。然而,人工智能和大数据在口译中的使用引发了数据保护和保密方面的一些伦理问题。最早提到机器翻译可以追溯到 20 世纪 30 年代。尽管历史悠久,但翻译研究中很少讨论机器翻译的伦理考虑,据我们所知,口译研究中根本没有讨论过这些问题。本文首先研究了如何将人工智能应用于口译以及现有的各种工具,然后讨论了人工智能的使用(尤其是在口译中使用)所引发的道德问题。