摘要:人工智能 (AI) 结合了算法、机器学习和自然语言处理的应用。AI 在教育领域有多种应用,例如自动评估和面部识别系统、个性化学习工具和微博系统。这些 AI 应用有可能通过支持学生的社交和认知发展来提高教育能力。尽管具有这些优势,但 AI 应用仍存在严重的伦理和社会缺陷,而这些缺陷在 K-12 教育中很少被考虑。将这些算法融入教育可能会加剧社会现有的系统性偏见和歧视,使来自边缘化和服务不足群体的学生的隐私、自主权和监视问题长期存在,并加剧现有的性别和种族偏见。在本文中,我们探讨了 AI 在 K-12 教育中的应用,并强调了它们的道德风险。我们引入教学资源,帮助教育工作者应对整合人工智能的挑战,并提高 K-12 学生对人工智能和道德的理解。本文最后提出了研究建议。
人工智能 (AI) 正在改变企业处理招聘和聘用流程的方式。随着组织越来越多地转向使用 AI 来简化招聘流程,围绕其使用的道德考虑变得越来越重要。虽然 AI 可以提供减少偏见和提高效率等好处,但它也引发了对隐私、公平和问责制的担忧。本研究论文的目的是探讨在招聘过程中使用 AI 的道德考虑,并确定确保合乎道德的 AI 招聘实践的最佳实践。AI 是指开发可以执行通常需要人类智能的任务(例如决策和解决问题)的计算机系统。在招聘方面,AI 算法可用于扫描简历、进行就业前评估和分析视频面试以识别潜在候选人。AI 有可能通过识别高质量候选人并减少招聘所需的时间和资源来改善招聘结果。然而,在招聘中使用人工智能也引发了与隐私、公平和问责相关的道德问题。
该课程的目的和大学的目的更广泛 - 是帮助您发展批判性思维技能,自行思考的能力。当我们进入人工智能时代(如果是我们正在做的话)时,为自己思考并清楚地表达您的想法的能力将比以往任何时候都变得更加重要。在您的学术写作中,您正在与其他人类就主要想法进行对话。我敦促您以自己的想法和自己的声音进行这种对话。写作过程虽然困难且耗时,但可以帮助您完善和澄清想法。本课程为您提供了练习和发展这些基本的批判性思维技能的机会。,如果您依靠聊天机器人来生成想法并为您写论文,则不会从中受益。
课程大纲 讲师:Kyle Ferguson,环境研究系兼职教授 电子邮箱:kyle.ferguson@nyu.edu 办公室:285 Mercer Street,902 室 虚拟办公室:Zoom(会议 ID:398 318 6573;密码:420026) 办公时间:周一和周三,下午 12:30–1:30 及预约时间 课程网站:纽约大学课程 > 伦理与环境,第 001 节 [ URL ] 课程描述:环境哲学是一门大学科,涉及形而上学、科学哲学和哲学史的问题,也涉及伦理学、美学和政治哲学等规范领域。本课程主要讨论这些规范领域。从价值理论的一些基本概念开始,我们的目标不是找到具体环境问题的明确解决方案,而是 (i) 提高您的批判性思考能力、仔细阅读的能力以及就环境问题进行良好辩论的能力;(ii) 向您介绍环境哲学中的一些主要争议;(iii) 帮助您对正在讨论的问题形成自己理性而清晰的观点。课程材料:
罗氏认识到 AI 在生命科学研究和医疗保健领域的潜力,并专注于开发一系列与 AI 相关的解决方案,以部署在医疗环境中(例如支持 AI 的诊断应用程序),用于开发药品(即优化和加速研发),用于不同的科学决策领域,以及合规地实现患者和客户体验的商业应用。目前,AI 没有统一的定义。经合组织将 AI 系统定义为“一种基于机器的系统,出于明确或隐含的目标,从收到的输入中推断如何生成输出,例如预测、内容、建议或决策,这些输出 [可以] 影响物理或虚拟环境。不同的 AI 系统在部署后的自主性和适应性水平上有所不同。”(更多)
1. 了解人工智能的法律和伦理含义,以及它们如何影响社会、组织和个人。 2. 分析人工智能应用和技术对政府、行业和公众等各利益相关者的潜在影响。 3. 批判性地理解人工智能的潜在风险和好处,以及如何在最大化好处的同时降低风险。 4. 了解法律、法规和道德在塑造人工智能发展和使用方面的作用。 5. 了解如何将道德原则和框架应用于人工智能相关的决策。 6. 了解人工智能运行的社会、文化和政治背景,以及这些背景如何影响人工智能的发展和部署。 7. 了解公共政策在规范和塑造人工智能发展和使用方面的作用。 8. 了解研究伦理在人工智能中的作用以及人工智能研究人员的道德责任。 9. 了解不同观点和声音在塑造人工智能发展和使用方面的作用,包括代表性不足的群体和边缘化社区的观点。 10.了解人工智能在促进或阻碍社会公正和平等方面的作用。
Ankeny、Munsie 和 Leach (2022) 为 iBlastoids 提出的反思、预期和审议 (RAD) 方法虽然很有价值,但需要一个锚点来确保其方法的每个过程都已充分进行。否则,反思、预期和审议可能会偏离航向或过早结束。我们建议将 RAD 方法锚定到复杂性的道德原则上;(当前或潜在的) 类器官实体在本体论和认识论上越复杂,就越需要对该实体进行道德考量。基于 Preiser 和 Cilliers (2010) 的观点,类器官实体的复杂性可以有两个关键要素;类器官实体的特征和功能(本体论复杂性),以及我们目前对类器官实体的理解的功能(认识论复杂性)。这些复杂程度越高,RAD 方法就越需要关注这些要素——以免我们忽略潜在的道德显著特征、功能或知识。例如,对于肠道类器官,反思、预期和审议可能不需要像对于脑类器官、iBlastoids 或多细胞工程化生命系统 (M-CELS) 那样强大 (Sample 等人,2019)。这至少部分是因为脑类器官、iBlastoids 或 M-CELS 等类器官实体的复杂程度超过了肠道类器官。此外,它们的复杂特征和功能中有一些元素可能被视为道德显著的。因此,RAD 流程需要更多时间和精力来解决这些特征、功能和目前的理解。负责任的研究创新 (RRI) 框架的先前迭代将重点放在更好地
摘要 — 为了在这个日益脆弱的世界中保护共同的文化遗产、个人自由和法治,民主国家必须能够在必要时“以机器速度”保卫自己。因此,人工智能在国防中的使用包括负责任的武器交战以及后勤、预测性维护、情报、监视或侦察等军事用例。这就提出了一个永恒的问题:如何根据公认的事实做出正确的决定?为了找到答案,负责任的可控性需要转化为系统工程的三个任务:(1)以人类在心理和情感上能够掌握每种情况的方式设计人工智能自动化。(2)确定技术设计原则,以促进人工智能在国防中的负责任使用。(3) 保证人类决策者始终拥有充分的信息、决策和行动选择优势。这里为防空提出的道德人工智能演示器 (E-AID) 正在铺平道路,让士兵尽可能真实地体验人工智能在瞄准周期中的使用以及相关的压力方面。
● 算法决策缺乏透明度 ● 不法分子利用人工智能做坏事 ● 人工智能系统容易被篡改和出现数据安全问题 ● 系统容易受到偏见 ● 法律跟不上技术的发展 ● 我如何真正信任这些系统?
