密码学长期以来一直是确保通信和保护隐私的工具。但是,其作用超出了技术实施,以涵盖重要的政治和道德方面。由埃里克·休斯(Eric Hughes)于1993年撰写的Cypherpunk宣言[7],强调了加密和拥护者的继承性政治本质,以此作为确保隐私和个人自由的一种手段。同样,菲利普·罗加威(Phillip Rogaway)的[10]工作强调了密码学家的道德责任,尤其是在大规模监视和社会影响的背景下。从根本上讲,密码学可以看作是“武装”群众保护自己的群众的一种手段。1993年的宣言和罗加威的作品强调了两个要点:不信任政府和保护集体数据。这种观点在戴维·乔姆(David Chaum)的思想中得到了回应,他提出了一个依靠强大加密来保护隐私的交易模型。尽管这些想法首次阐明了40多年,但保护社会免受信息滥用的梦想仍然很遥远。Chaum警告:
虽然有几种以消费者为中心的产品,但非法使用基于BCI的高级训练(思维和思想种子)技术可能会对公民社会造成很大的破坏。最糟糕的是,缺乏对某些技术及其启用工具的存在的正式认可。以及对这种工具的不同意和不受监管的使用可能是对人类的不道德到危险的任何地方。
传统的自由模型通常会隔离自主权,从而导致概念上的显着差距。自由主义者的自由意志强调完全独立于外部决定因素,这是一种理想化和不受约束的代理形式。这种观点忽略了自主权固有地受到系统性和关系影响的方式。另一方面,兼容允许在确定性的边界内自由意志,但会降低自主权,仅与内部欲望相结合,无法说明能够实现道德化增长和反思性决策的机制(Wisniewski等人,2019年)。 坚硬的决定论认为所有人类行为都是由外部因素决定的,它否认了自由的存在。 虽然在逻辑上保持一致,但这种观点忽略了人类通过有意识的努力来反思和重塑其行为的可观察能力。 关系方法(例如关系自主权和集体意图)正确地强调了社会关系在塑造自主权中的作用,但经常将这些影响降低到次要重要性,忽略了人类决策的相互联系和系统性的维度(Christman,1990; Mackenzie&Stoljar,2000; 2000年)。 共同解决了自由意志的发展,关系和道德方面(Frankfurt,1971)。兼容允许在确定性的边界内自由意志,但会降低自主权,仅与内部欲望相结合,无法说明能够实现道德化增长和反思性决策的机制(Wisniewski等人,2019年)。坚硬的决定论认为所有人类行为都是由外部因素决定的,它否认了自由的存在。虽然在逻辑上保持一致,但这种观点忽略了人类通过有意识的努力来反思和重塑其行为的可观察能力。关系方法(例如关系自主权和集体意图)正确地强调了社会关系在塑造自主权中的作用,但经常将这些影响降低到次要重要性,忽略了人类决策的相互联系和系统性的维度(Christman,1990; Mackenzie&Stoljar,2000; 2000年)。共同解决了自由意志的发展,关系和道德方面(Frankfurt,1971)。
摘要教育中的人工智能(AI)技术的整合引入了许多可能性和好处。但是,这也引发了道德问题,需要仔细考虑。这项研究工作探讨了与AI在教育中的实施相关的道德意义。这项工作研究了关键的道德维度,包括隐私和数据保护,公平和偏见以及对教师关系关系的影响。发现突出了AI设计和部署中透明度,问责制和公平性的重要性。这项工作提出了一个全面的框架,以指导教育中的道德人工智能实施,强调对强大的政策,算法透明度和解决偏见的需求。通过主动解决这些道德考虑,教育利益相关者可以确保一个负责任且包容的教育环境,以利用AI的潜力,同时维护道德原则。人工智能(AI)已彻底改变了包括教育在内的各个部门。其整合到教育体系中,提出了关于隐私,自治,偏见和问责制的道德问题。本文通过哲学观点深入研究了人工智能在教育中的道德意义。利用著名哲学家的作品,研究了在教育环境中使用人工智能技术固有的道德考虑。
马里兰州克朗斯维尔:今天,马里兰州信息技术部 (DoIT) 和马里兰州人工智能分部宣布,他们已向马里兰州议会提交了人工智能支持战略和人工智能研究路线图(AI 路线图)。该路线图列出了该州将实施的 5 部分战略,以加快在全州安全实施人工智能和机器学习技术。它还概述了该州将在 12 个关键领域开展的具体研究,包括促进经济发展、提高州劳动力的生产率以及为当地学校系统制定政策。“生成人工智能正以前所未有的速度发展,可能影响马里兰州人民生活的几乎每个方面,”DoIT 部长兼人工智能分部主席 Katie Savage 表示。“人工智能路线图为马里兰州在 2025 年的发展规划了路线图,帮助其加快人工智能采用的步伐,同时考虑到马里兰州独特的资产、机遇和风险。我们准备以切实可行的方式采用这项技术,使我们的国家更加安全、更具竞争力、更高效。”
● 算法决策缺乏透明度 ● 不法分子利用人工智能做坏事 ● 人工智能系统容易被篡改和出现数据安全问题 ● 系统容易受到偏见 ● 法律跟不上技术的发展 ● 我如何真正信任这些系统?
摘要:人工智能 (AI) 结合了算法、机器学习和自然语言处理的应用。AI 在教育领域有多种应用,例如自动评估和面部识别系统、个性化学习工具和微博系统。这些 AI 应用有可能通过支持学生的社交和认知发展来提高教育能力。尽管具有这些优势,但 AI 应用仍存在严重的伦理和社会缺陷,而这些缺陷在 K-12 教育中很少被考虑。将这些算法融入教育可能会加剧社会现有的系统性偏见和歧视,使来自边缘化和服务不足群体的学生的隐私、自主权和监视问题长期存在,并加剧现有的性别和种族偏见。在本文中,我们探讨了 AI 在 K-12 教育中的应用,并强调了它们的道德风险。我们引入教学资源,帮助教育工作者应对整合人工智能的挑战,并提高 K-12 学生对人工智能和道德的理解。本文最后提出了研究建议。
