■ 如果您提供最少努力的提示,您将获得低质量的结果。您需要改进提示以获得良好的结果。这需要努力。■ 不要相信它说的任何话。如果它给您一个数字或事实,除非您知道答案或可以向其他来源核实,否则假设它是错误的。您将对该工具提供的任何错误或遗漏负责。它最适合您理解的主题。■ AI 是一种工具,但您需要承认使用它。请在任何使用 AI 的作业末尾附上一段,解释您使用 AI 的用途以及您使用什么提示来获得结果。不这样做违反了学术诚信政策。■ 请仔细考虑此工具何时有用。如果它不适合案例或情况,请不要使用它。
- 了解人工智能的范围:用户应熟悉人工智能设计的特定任务,并认识到人工智能在能力和性能方面的限制,从而确定所用人工智能系统的能力和局限性。 - 承认算法的局限性:了解人工智能算法固有的局限性,例如偏见、不准确性和不确定性。了解人工智能系统可能会产生错误或意外结果,特别是在复杂或模糊的情况下。 - 认识环境约束:考虑人工智能系统部署的环境,并认识到数据质量、可用性和相关性等因素造成的限制。
6. 人工智能不能创造新的不合理歧视标准。教师必须警惕人工智能以不明显的方式分析学生数据的能力,这可能导致不合理的歧视。例如,“快速滚动”是注意力不集中甚至学术不诚实的证据。教师应该使用反事实来解释上述原则。例如,如果你没有包含对可能是人工智能算法创建的虚构期刊的错误引用,你本可以取得更好的成绩。[1] 参见:沃赫特、布伦特·米特尔施塔特和克里斯·罗素,《为什么公平不能自动实现:弥合欧盟反歧视法与人工智能之间的鸿沟》(2020 年 3 月 3 日)。计算机法律与安全评论 41 (2021): 105567。,可在 SSRN 上获取:https://ssrn.com/abstract=3547922 或 http://dx.doi.org/10.2139/ssrn.3547922
1 联合国教科文组织《人工智能伦理建议书》,网址:https://unesdoc.unesco.org/ark:/48223/pf0000380455 。2 人工智能系统生命周期的各个阶段包括研究、设计和开发、采购、部署和使用,包括维护、运营、交易、融资、监测和评估、验证、使用结束、拆卸和终止(见联合国教科文组织《人工智能伦理建议书》第 2(b) 段,网址:https://unesdoc.unesco.org/ark:/48223/pf0000380455 )。3 联合国秘书长(UNSG),《联合国关于支持非联合国安全部队的人权尽职调查政策》(“HRDDP”),2013 年 3 月 5 日,A/67/775-S/2013/110,适用于所有向非联合国安全部队提供支持的联合国实体。4 可从以下网址获取:https://unsceb.org/personal-data-protection-and-privacy-principles。5 可从以下网址获取:https://interagencystandingcommittee.org/operational-response/iasc-operational-guidance-data-response-humanitarian-action。整个系统的合作伙伴将根据各自的任务和理事机构的决定实施这些准则。6 有关人工智能方法的更多信息,请参阅第 6 段。联合国教科文组织《人工智能伦理建议》第 2 条,可访问 https://unesdoc.unesco.org/ark:/48223/pf0000380455 。然而,人们承认,随着技术的发展,人工智能的定义可能需要随着时间的推移而改变。