我们很高兴地通知,澳大利亚迪肯大学的 Seng Wai Loke 教授将于下周三(2021 年 5 月 26 日)下午 1:30 至 2:30 通过 Microsoft Teams 向 TME4093 学生介绍“人工智能的数字伦理”讲座。本次活动也向所有 UNIMAS 教职员工和学生开放。请通过此链接预订参加他的讲座:https://forms.gle/xB4SaDBAYmC2SpmC7 通过他的个人资料页面了解 Seng Loke 教授:https://sites.google.com/site/sengwloke/home?authuser=0
第 1 章 道德概述 1 插图 1 思科董事长兼首席执行官提倡道德行为 1 什么是道德?3 道德的定义 3 诚信的重要性 4 道德、伦理和法律之间的区别 5 商业世界中的道德 5 企业社会责任 8 为什么培养企业社会责任和良好的商业道德很重要 8 改善企业道德 12 创造道德的工作环境 18 在决策中考虑道德问题 20 制定问题陈述 21 确定替代方案 21 评估和选择替代方案 22 实施决策 24 评估结果 24 信息技术中的道德 24 总结 26 关键术语 27 自我评估问题 27 讨论问题 28 您会怎么做?29 案例 31 尾注 35
在你们的大学学习期间,甚至在你们在美国的生活期间,你们一直被灌输一种关于技术、道德和社会的相当具体的世界观。它的一些原则是:技术是我们制造和使用的小工具;它是科学的产物;技术绝大多数情况下使事情变得更好;它解放了我们,赋予我们力量,帮助每个人繁荣发展;我们的技术从根本上说是非政治、非宗教、非道德的。同样的,世界观认为,个人是推动技术变革的主要推动者,也是这种变革的责任中心。相应地,当科学家或工程师个人遵守法律、专业标准和文化规范时,他的行为就是合乎道德和适当的。我担心,这一切更多的是虚假而不是真实。这是我们编造的一种虚构故事,以便我们能更轻松地完成我们所做的事情。与此同时,我所勾勒出的观点是我们文化、制度和我们自身的一部分,以至于我们几乎看不到它的存在。现在,这种盲目性危及我们的生存。我在这里收集的许多阅读材料都旨在推动您至少在一定程度上质疑上述假设。希望其中的一两个能够发挥作用。学期末,当你做课程评估时,课程目标陈述会部分地说明,我希望你思考并采取行动,考虑你的个人和职业选择以及我们作为技术专家的集体工作的道德含义。从某种程度上来说,这听起来可能很容易,也许就像你一直在做的事情一样。但事实上,我怀疑这很少发生,而且是一件非常困难的事情。推翻这块石头会揭示一个既难以理解又令人不快的世界。一位同事曾经评论说,他从未见过有人认为自己的行为不恰当和不善。然而,在我看来,我们集体地经常犯下大量错误。我们每个人都可以表现得很好,但不知何故,我们的集体行为最终却如此恶劣,这真的有可能吗?我会让你自己思考这个谜语的答案,最后祝愿你在与本说明和本课程的问题的斗争中获得智慧——肯定比我所发现的更多。
您打算使用本地资源(例如动物和/或人体组织样本,遗传物质,活动物,人类遗体,历史价值的材料,濒临灭绝的动物或动植物样本等。)?
基于人工智能(AI)的技术已经取得了许多伟大的成就,例如人脸识别、医疗诊断和自动驾驶汽车。人工智能为经济增长、社会发展以及人类福祉和安全改善带来了巨大利益。然而,基于人工智能的技术的低可解释性、数据偏见、数据安全、数据隐私和道德问题对用户、开发者、人类和社会构成了重大风险。随着人工智能的进步,一个关键的问题是如何应对与人工智能相关的伦理和道德挑战。尽管“机器伦理”的概念是在2006年左右提出的,但人工智能伦理仍处于起步阶段。人工智能伦理是研究人工智能伦理问题相关的领域。要解决人工智能伦理问题,人们需要考虑人工智能的伦理以及如何构建合乎道德的人工智能。人工智能伦理研究与人工智能相关的伦理原则、规则、指南、政策和法规。道德人工智能是性能和行为符合道德的人工智能。 人们必须认识并理解人工智能可能引起的潜在伦理和道德问题,以制定人工智能必要的道德原则、规则、指南、政策和法规(即人工智能的道德规范)。有了适当的人工智能道德规范,人们就可以构建表现出道德行为的人工智能(即道德人工智能)。本文将通过研究人工智能的道德规范和道德人工智能来讨论人工智能道德规范。人工智能存在哪些已知的伦理和道德问题?一般和常见的道德问题是什么?哪些原则、规则、指南、政策和法规可以解决或至少减轻这些与人工智能有关的伦理和道德问题?合乎道德的人工智能需要具备哪些特征和特性?如何遵守人工智能的伦理道德来构建合乎道德的人工智能?
断言这样做的机器实际上是有意识地思考(而不仅仅是模拟思考)。随着时间的推移,强人工智能的定义发生了变化,指的是所谓的“人类级人工智能”或“通用人工智能”——可以像人类一样解决任意多种任务的程序。反对智能机器可能性的批评者现在看起来像西蒙·纽科姆,他在 1903 年写道“空中飞行是人类永远无法应对的一大难题。” 同年,莱特兄弟证明了他错了,每个月都有新的进展证明弱人工智能的批评者是错误的。然而,人工智能所能实现的目标可能存在一些限制。阿兰·图灵 (1950) 是第一个定义人工智能的人,也是第一个提出对人工智能可能存在的反对意见的人,他预见到了几乎所有后来其他人提出的反对意见。
人工智能(AI)已成为当代技术进步不可或缺的一部分,其应用涵盖了医疗保健,运输,财务和治理等行业。随着领域的发展,关于人工通用智能(AGI)的讨论已获得突出。与狭窄的AI不同,该AI旨在执行特定的任务,AGI渴望复制人类的认知能力,使系统能够自动地跨不同任务进行推理,学习和适应。对AGI的追求为社会转型带来了巨大的潜力,但也提出了复杂的道德,社会和治理挑战。本简介探讨了AGI的重要性,围绕其发展的道德考虑以及确保其负责部署的框架。
E.D. pa。法官约瑟夫·莱森(Joseph Leeson)在Young等人案中发出了初始程序命令 5:24CV4729,要求律师或诉讼人“使用[]任何生成的AI工具在准备要提交的任何文件中的任何生成性AI工具”才能披露和证明“使用的特定AI工具”,“使用AI的申请书,并涵盖了某些人的任何内容,并涵盖了某些人的精度,并将其确定为单位,所有引用和法律权威。”当在准备过程的任何部分(包括研究)中使用一代AI工具时,使用短语“制备”(与“起草”相对)可能表明需要披露和验证。 此外,该命令警告说,不遵守的命令可能会导致制裁,并指示当事方从“宾夕法尼亚州律师协会的共同正式意见和费城律师协会关于使用人工智能的使用的共同意见中的发现”。E.D.pa。法官约瑟夫·莱森(Joseph Leeson)在Young等人案中发出了初始程序命令5:24CV4729,要求律师或诉讼人“使用[]任何生成的AI工具在准备要提交的任何文件中的任何生成性AI工具”才能披露和证明“使用的特定AI工具”,“使用AI的申请书,并涵盖了某些人的任何内容,并涵盖了某些人的精度,并将其确定为单位,所有引用和法律权威。”当在准备过程的任何部分(包括研究)中使用一代AI工具时,使用短语“制备”(与“起草”相对)可能表明需要披露和验证。此外,该命令警告说,不遵守的命令可能会导致制裁,并指示当事方从“宾夕法尼亚州律师协会的共同正式意见和费城律师协会关于使用人工智能的使用的共同意见中的发现”。