传统的自由模型通常会隔离自主权,从而导致概念上的显着差距。自由主义者的自由意志强调完全独立于外部决定因素,这是一种理想化和不受约束的代理形式。这种观点忽略了自主权固有地受到系统性和关系影响的方式。另一方面,兼容允许在确定性的边界内自由意志,但会降低自主权,仅与内部欲望相结合,无法说明能够实现道德化增长和反思性决策的机制(Wisniewski等人,2019年)。 坚硬的决定论认为所有人类行为都是由外部因素决定的,它否认了自由的存在。 虽然在逻辑上保持一致,但这种观点忽略了人类通过有意识的努力来反思和重塑其行为的可观察能力。 关系方法(例如关系自主权和集体意图)正确地强调了社会关系在塑造自主权中的作用,但经常将这些影响降低到次要重要性,忽略了人类决策的相互联系和系统性的维度(Christman,1990; Mackenzie&Stoljar,2000; 2000年)。 共同解决了自由意志的发展,关系和道德方面(Frankfurt,1971)。兼容允许在确定性的边界内自由意志,但会降低自主权,仅与内部欲望相结合,无法说明能够实现道德化增长和反思性决策的机制(Wisniewski等人,2019年)。坚硬的决定论认为所有人类行为都是由外部因素决定的,它否认了自由的存在。虽然在逻辑上保持一致,但这种观点忽略了人类通过有意识的努力来反思和重塑其行为的可观察能力。关系方法(例如关系自主权和集体意图)正确地强调了社会关系在塑造自主权中的作用,但经常将这些影响降低到次要重要性,忽略了人类决策的相互联系和系统性的维度(Christman,1990; Mackenzie&Stoljar,2000; 2000年)。共同解决了自由意志的发展,关系和道德方面(Frankfurt,1971)。
1。Introduction................................................................................................. 1
摘要:人工智能(AI)工具,利用先进的语言模型,获取和模仿人类文学创作。这些工具具有迅速产生大量多种多模式文学作品的能力,符合个性化的读者偏好,并与读者进行互动交流,从而促进了人类与AI之间的协作创造范式。在AI时代,作者,文学作品,读者和批评家的角色将经历重大的转变。AI文学对定义文学中传统概念的现有文学理论提出了挑战,因此需要重新建立和进步文学批评。及其跨学科属性的道德文学批评(ELC)致力于使用科学的理论方法研究文学创造的机制及其道德意义。在其原始理论框架上建立了,ELC积极解决了AI文献研究引起的问题和需求。 nie Zhenzhao对语言和文本的定义有助于研究未来的文学类型及其意义。 AI文献的叙述,美学和教育方面也将成为ELC进一步创新和发展的焦点和领域。 科学选择阶段代表了AI时代,并且随着AI转弯,ELC经历了重大的转换。 关键字:AI转;道德文学批评;科学选择; AI文献作者:Lyu Hongbo是江南大学外国研究学院讲师(中国Wuxi 214122)。,ELC积极解决了AI文献研究引起的问题和需求。nie Zhenzhao对语言和文本的定义有助于研究未来的文学类型及其意义。AI文献的叙述,美学和教育方面也将成为ELC进一步创新和发展的焦点和领域。科学选择阶段代表了AI时代,并且随着AI转弯,ELC经历了重大的转换。关键字:AI转;道德文学批评;科学选择; AI文献作者:Lyu Hongbo是江南大学外国研究学院讲师(中国Wuxi 214122)。她目前的研究兴趣是儿童图画书和道德文学批评(电子邮件:lyuhongbo@qq.com)。Fang Wenkai(通讯作者)是江南大学外国研究学院教授(中国Wuxi 214122)。 他的学术兴趣是道德的文学批评和美国CLI-FI批评(电子邮件:fangwenkai@jiangnan.edu.cn)。Fang Wenkai(通讯作者)是江南大学外国研究学院教授(中国Wuxi 214122)。他的学术兴趣是道德的文学批评和美国CLI-FI批评(电子邮件:fangwenkai@jiangnan.edu.cn)。
密码学长期以来一直是确保通信和保护隐私的工具。但是,其作用超出了技术实施,以涵盖重要的政治和道德方面。由埃里克·休斯(Eric Hughes)于1993年撰写的Cypherpunk宣言[7],强调了加密和拥护者的继承性政治本质,以此作为确保隐私和个人自由的一种手段。同样,菲利普·罗加威(Phillip Rogaway)的[10]工作强调了密码学家的道德责任,尤其是在大规模监视和社会影响的背景下。从根本上讲,密码学可以看作是“武装”群众保护自己的群众的一种手段。1993年的宣言和罗加威的作品强调了两个要点:不信任政府和保护集体数据。这种观点在戴维·乔姆(David Chaum)的思想中得到了回应,他提出了一个依靠强大加密来保护隐私的交易模型。尽管这些想法首次阐明了40多年,但保护社会免受信息滥用的梦想仍然很遥远。Chaum警告:
人工智能 (AI) 正在改变企业处理招聘和聘用流程的方式。随着组织越来越多地转向使用 AI 来简化招聘流程,围绕其使用的道德考虑变得越来越重要。虽然 AI 可以提供减少偏见和提高效率等好处,但它也引发了对隐私、公平和问责制的担忧。本研究论文的目的是探讨在招聘过程中使用 AI 的道德考虑,并确定确保合乎道德的 AI 招聘实践的最佳实践。AI 是指开发可以执行通常需要人类智能的任务(例如决策和解决问题)的计算机系统。在招聘方面,AI 算法可用于扫描简历、进行就业前评估和分析视频面试以识别潜在候选人。AI 有可能通过识别高质量候选人并减少招聘所需的时间和资源来改善招聘结果。然而,在招聘中使用人工智能也引发了与隐私、公平和问责相关的道德问题。
摘要:人工智能 (AI) 结合了算法、机器学习和自然语言处理的应用。AI 在教育领域有多种应用,例如自动评估和面部识别系统、个性化学习工具和微博系统。这些 AI 应用有可能通过支持学生的社交和认知发展来提高教育能力。尽管具有这些优势,但 AI 应用仍存在严重的伦理和社会缺陷,而这些缺陷在 K-12 教育中很少被考虑。将这些算法融入教育可能会加剧社会现有的系统性偏见和歧视,使来自边缘化和服务不足群体的学生的隐私、自主权和监视问题长期存在,并加剧现有的性别和种族偏见。在本文中,我们探讨了 AI 在 K-12 教育中的应用,并强调了它们的道德风险。我们引入教学资源,帮助教育工作者应对整合人工智能的挑战,并提高 K-12 学生对人工智能和道德的理解。本文最后提出了研究建议。