该课程的目的和大学的目的更广泛 - 是帮助您发展批判性思维技能,自行思考的能力。当我们进入人工智能时代(如果是我们正在做的话)时,为自己思考并清楚地表达您的想法的能力将比以往任何时候都变得更加重要。在您的学术写作中,您正在与其他人类就主要想法进行对话。我敦促您以自己的想法和自己的声音进行这种对话。写作过程虽然困难且耗时,但可以帮助您完善和澄清想法。本课程为您提供了练习和发展这些基本的批判性思维技能的机会。,如果您依靠聊天机器人来生成想法并为您写论文,则不会从中受益。
密码学长期以来一直是确保通信和保护隐私的工具。但是,其作用超出了技术实施,以涵盖重要的政治和道德方面。由埃里克·休斯(Eric Hughes)于1993年撰写的Cypherpunk宣言[7],强调了加密和拥护者的继承性政治本质,以此作为确保隐私和个人自由的一种手段。同样,菲利普·罗加威(Phillip Rogaway)的[10]工作强调了密码学家的道德责任,尤其是在大规模监视和社会影响的背景下。从根本上讲,密码学可以看作是“武装”群众保护自己的群众的一种手段。1993年的宣言和罗加威的作品强调了两个要点:不信任政府和保护集体数据。这种观点在戴维·乔姆(David Chaum)的思想中得到了回应,他提出了一个依靠强大加密来保护隐私的交易模型。尽管这些想法首次阐明了40多年,但保护社会免受信息滥用的梦想仍然很遥远。Chaum警告:
为了加强教育领域人工智能的道德框架,该研究所鼓励政府和民间社会积极采取措施,确保学习者、教育工作者和社会所有成员对人工智能及其道德影响有深入的了解。知情的用户将能够更好地充分利用人工智能,同时认真防范其风险,尽管教育领域人工智能的道德框架并不要求事先了解人工智能,但对人工智能的深入了解将有助于明智地使用该框架。许多国家已经在实现这一目标方面取得了进展。例如,英国的人工智能路线图敦促政府致力于实现人工智能和数据素养的雄心勃勃的目标。
生成人工智能(Genai)的出现和日益普及有可能改变法医精神病学和刑事司法的AI应用,传统上依赖于歧视性的AI算法。生成的AI模型标志着从以前流行的范式中通过生成看似新的现实数据并分析和集成了来自不同数据格式的大量非结构化内容的能力的显着转变。这种潜力不仅仅是重塑常规做法,例如风险评估,诊断支持以及治疗和康复计划,还可以在以前未经置换的领域(例如培训和教育)中创造新的机会。本文研究了生成人工智能对法医精神病学和刑事司法中AI应用的变革性影响。首先,它引入了生成AI及其普遍模型。之后,它回顾了法医精神病学中歧视性AI的当前应用。随后,它对生成AI的潜力进行了彻底的探索,可以通过多模式生成模型,数据生成和数据增强来改变既定的实践并引入新颖的应用。最后,它提供了与部署生成AI模型相关的道德和法律问题的全面概述,重点是他们对个人的影响以及其更广泛的社会影响。总而言之,本文旨在为在法医背景下生成AI应用的动态挑战的持续论述做出贡献,突出了潜在的机会,风险和挑战。它提倡跨学科的合作,并强调对生成AI模型进行彻底,负责任的评估的必要性,然后在广泛采用的决策中常规地做出了实质性的改变后果。
摘要:人工智能(AI)工具,利用先进的语言模型,获取和模仿人类文学创作。这些工具具有迅速产生大量多种多模式文学作品的能力,符合个性化的读者偏好,并与读者进行互动交流,从而促进了人类与AI之间的协作创造范式。在AI时代,作者,文学作品,读者和批评家的角色将经历重大的转变。AI文学对定义文学中传统概念的现有文学理论提出了挑战,因此需要重新建立和进步文学批评。及其跨学科属性的道德文学批评(ELC)致力于使用科学的理论方法研究文学创造的机制及其道德意义。在其原始理论框架上建立了,ELC积极解决了AI文献研究引起的问题和需求。 nie Zhenzhao对语言和文本的定义有助于研究未来的文学类型及其意义。 AI文献的叙述,美学和教育方面也将成为ELC进一步创新和发展的焦点和领域。 科学选择阶段代表了AI时代,并且随着AI转弯,ELC经历了重大的转换。 关键字:AI转;道德文学批评;科学选择; AI文献作者:Lyu Hongbo是江南大学外国研究学院讲师(中国Wuxi 214122)。,ELC积极解决了AI文献研究引起的问题和需求。nie Zhenzhao对语言和文本的定义有助于研究未来的文学类型及其意义。AI文献的叙述,美学和教育方面也将成为ELC进一步创新和发展的焦点和领域。科学选择阶段代表了AI时代,并且随着AI转弯,ELC经历了重大的转换。关键字:AI转;道德文学批评;科学选择; AI文献作者:Lyu Hongbo是江南大学外国研究学院讲师(中国Wuxi 214122)。她目前的研究兴趣是儿童图画书和道德文学批评(电子邮件:lyuhongbo@qq.com)。Fang Wenkai(通讯作者)是江南大学外国研究学院教授(中国Wuxi 214122)。 他的学术兴趣是道德的文学批评和美国CLI-FI批评(电子邮件:fangwenkai@jiangnan.edu.cn)。Fang Wenkai(通讯作者)是江南大学外国研究学院教授(中国Wuxi 214122)。他的学术兴趣是道德的文学批评和美国CLI-FI批评(电子邮件:fangwenkai@jiangnan.edu.cn)。
研究人员是否知道道德考虑因素以及何时将其应用于研究?本文使用二级数据源来描述数据编辑学科和原则的各个方面,并以道德考虑在定性和定量研究方法中研究研究中的编辑数据。通过过去的研究,研究的道德亚结构包含三个层面的维度:哲学,实践和反思性。数据编辑过程探索和审查数据,以确保一致性,错误和异常值和纠正错误,以提高收集到的数据的质量,准确性和充分性,从而使其更适合于收集数据的目的,例如检测到数据持续数字的字段数量和误差。数据编辑过程基于逻辑,常识和遵守书面程序或编辑指南,针对院士,政策制定者和研究人员的未来研究人员。
2025年1月15日撰写:纳粹·安迪比(Nazanin Andalibi)(密歇根大学),大卫·丹克斯(加利福尼亚大学,圣地亚哥分校),海莉·格里芬(Haley Griffin),海莉·格里芬(计算机研究协会),玛丽·卢·马赫(Mary Lou Maher)(计算机研究协会),杰西卡·麦克莱恩(JESSICA MCCLEARN(GOOGLE),Google)健康),凯蒂·西克(Katie Siek)(印第安纳大学),塔米·托斯科斯(Tammy Toscos)(Parkview Health),Helen V. Wright(计算研究协会)和Pamela Wisniewski(Vanderbilt University)此反应来自计算机研究协会(CRA)的计算社区联合会(CCC)(CCC)和CRA-Industry(CRA-Industry)。CRA是近250个北美计算机研究组织的协会,包括学术和工业,以及来自六个专业计算社会的合作伙伴。CCC的任务是CRA的小组委员会,是为了追求创新的,高影响力的计算研究,与紧迫的国家和全球挑战保持一致。CRA的另一个小组委员会CRA-I的使命是召集行业合作伙伴计算共同利益的研究主题,并将其与CRA的学术和政府选民联系起来,以促进共同利益和改善社会成果。请注意,本材料中表达的任何意见,发现,结论或建议是作者的意见,不一定反映了作者隶属关系的观点。下面我们回答了提出评论请求的问题1-9、11和13-14。
● 算法决策缺乏透明度 ● 不法分子利用人工智能做坏事 ● 人工智能系统容易被篡改和出现数据安全问题 ● 系统容易受到偏见 ● 法律跟不上技术的发展 ● 我如何真正信任这些系统?
摘要:人工智能 (AI) 结合了算法、机器学习和自然语言处理的应用。AI 在教育领域有多种应用,例如自动评估和面部识别系统、个性化学习工具和微博系统。这些 AI 应用有可能通过支持学生的社交和认知发展来提高教育能力。尽管具有这些优势,但 AI 应用仍存在严重的伦理和社会缺陷,而这些缺陷在 K-12 教育中很少被考虑。将这些算法融入教育可能会加剧社会现有的系统性偏见和歧视,使来自边缘化和服务不足群体的学生的隐私、自主权和监视问题长期存在,并加剧现有的性别和种族偏见。在本文中,我们探讨了 AI 在 K-12 教育中的应用,并强调了它们的道德风险。我们引入教学资源,帮助教育工作者应对整合人工智能的挑战,并提高 K-12 学生对人工智能和道德的理解。本文最后提出了研究建议。