人工智能辅助技术所做出的贡献超过了最低限度。例如,当人工智能技术仅接受人类的提示并产生复杂的书面、视觉或其他作品作为回应时,创作控制权和其他传统的作者和贡献者要素是由技术而不是人类用户决定和执行的。即使作者或贡献者以自己的表达方式选择或安排人工智能生成的材料,该人工智能输出的任何剩余衍生品,只要包含超过最低限度的原始人工智能生成输出,仍被视为非人类生成的。值得注意的是,这适用于受版权保护的作品产品的内容;例如,如果人工智能辅助技术的使用只是作为一种研究辅助手段(例如,要求人工智能辅助技术缩小作者文献搜索的文章范围);假设列表本身不是学术作品的一部分,则不需要区分这种使用。
得益于美国国家标准与技术研究所 (NIST)、美国教育部、经济合作与发展组织 (OECD)、欧盟委员会和联合国教育、科学及文化组织 (UNESCO) 等组织的努力,人们对负责任地使用人工智能的含义已经达成了普遍共识。美国心理学会 (APA)、美国教育研究协会 (AERA)、美国国家教育测量委员会 (NCME) 和国际测试委员会 (ITC) 制定的联合标准也为教育测量的道德方法提供了重要指导。
负责任地使用人工智能 人工智能 (AI) 写作辅助工具的出现为学生提供了宝贵的写作帮助。大学鼓励使用写作辅助工具,但是,每个学生都必须了解过度依赖 AI 写作辅助工具的道德陷阱和困境。正如 Liberty Way 中所述,大学的期望是学生不能使用 AI 写作辅助工具来生成作业内容。这一期望尊重了大学长期以来对学生作品的原创性和真实性的价值观。原创性和真实性原则是我们对 AI 立场的驱动因素。我们不会禁止 ChatGPT、Grammarly 或任何其他 AI 写作辅助工具。许多 AI 工具都具有非常有用的功能,学生可以合乎道德地使用它们。我们禁止的是允许 AI 生成以原创作品呈现的内容或允许 AI 对现有作品进行重大修改,以至于作业不再是学生自己的话。这种行为引起了人们的担忧,并且由于侵犯了作业的原创性和真实性,可以被视为学术不端行为。 Turnitin AI 检测器也极有可能检测到这种 AI 的使用。正如学生不应将自己的作业交给其他人添加内容一样,AI 也是如此。Grammarly 的使用非常普遍,大学也没有禁止使用。Grammarly 对学生来说可能是一个非常有价值的工具。但是,建议学生采取预防措施,避免在 Grammarly 或任何其他写作辅助工具中使用生成文本 AI 功能。学生不应接受 AI 对其作品进行的“改进”。如果 Grammarly 建议对您的作品进行基本拼写和语法编辑以外的修改,则不应接受这些修改。我们鼓励学生让他们的真实写作风格在他们的作品中占据突出地位,而不要让它被 AI 生成的内容所淡化。如果可能,强烈建议关闭 Grammarly 或任何其他写作辅助工具中的生成文本 AI 功能。
Regeneron 认识到人工智能 (AI) 有潜力推动我们的使命:利用科学的力量为患有严重疾病的人提供新药。我们使用人工智能技术来支持我们的研发 (R&D) 和运营,包括机器学习 (ML)、自然语言处理 (NLP)、生成预训练转换器 (GPT)、大型语言模型 (LLM) 和机器人流程自动化 (RPA)。我们致力于负责任和合乎道德地使用人工智能,并制定了适当的治理结构、政策、程序和指导原则来维护我们的高道德标准。
19 https://www.ft.com/content/323299dc-d9d5-482e-9442-f4516f6753f0?accessToken=zwAGE3Ur3YiAkc8yMpnc2dVILtOUQvRRb2dT8A.MEQCIEV31WkUIlM3mckulmhfWkQ2M0rGriOUIU519TQlSMjsAiBRCITBfoH_BF8jD-HkfhCuMW2ywf878ucpWwn7uvEKgQ&sharetype=gift&token=9d1172e7-23a4-41fc-9504-0896141f3e43
结合丰富的可用数据(例如医疗记录)及其多功能性,人工智能驱动的应用程序通常可以轻松地在数字系统中实现,并且几乎立即影响其使用环境。最常见的人工智能形式也称为“机器学习”(ML);然而,被称为“深度学习”的其他形式的人工智能正变得越来越频繁地使用,并且在未来会变得更加普遍。6、8 在详细介绍机器学习的技术方面之前,应仅在专业人员和患者共同决策期间在支持角色的背景下考虑人工智能或机器学习的使用。根据机器学习的发展模式,它可以分为:监督学习、无监督学习或强化“学习”。 6 在监督学习中,每个人的数据及其背景都会根据历史数据中某个事件的发生或缺失来创建预测或分类算法(例如,检测慢性疲劳等合并症、预测从 ICU 安全出院或个性化锻炼方案)。无监督学习侧重于未标记的数据集(没有发生预设的结果或事件),旨在探索、解开或确认数据集内现有的模式。强化学习是 ML 的一个子类别,侧重于通过最大化正确和/或不正确结果的可能性来优化预测/分类。虽然所有形式的 ML 都可能用于物理治疗,但监督 ML 算法最为常见,因为其输出类型通常类似于临床推理过程(例如决策树或决策规则)并且通常易于理解/实施。第二个重要特征是,AI 算法首先在数据集的一部分(训练集)上进行训练,然后在独立数据集上进行交叉验证,其性能以类似于物理治疗中常用的标准化临床测试的方式记录。AI 算法的性能指标(灵敏度、特异性、曲线下面积和其他 AI 特定的召回率和偏差指标)遵循与标准化临床测试大致相同的原则。3、6、7
对立法者和监管机构特别重要的是目前已有的公共政策框架的零碎性质。尽管本文未在联邦一级探讨立法解决方案,但值得注意的是,联邦框架将很快确保在州和国际边界上确保无缝发货的商品和人员流通。但是,这项研究确实打开了负责监督运输的联邦机构的现有规则制定权,目前在德克萨斯州管理这项技术的各种州政策,以及新颖的政策建议议员应考虑。更重要的是,通过平衡得克萨斯州追求成为该领域的杰出创新者的角度,同时在占据人工安全,尊严和自治之前提供了这种分析。
《监控技术透明和负责任使用条例》(“TRUST”)要求就本部门定义的城市获取和使用监控技术进行知情的公开和透明的讨论。市议会发现,虽然监控技术对于管理和提供城市服务以及保护公共安全至关重要,但它也可能被用来侵犯公众的公民权利和公民自由。市议会打算通过公开程序确定以下事项,以平衡这些利益:(1) 城市获取和使用监控技术给社区带来的好处大于成本;(2) 拟议的监控技术使用将保障公民权利和公民自由;(3) 根据提交给市议会的事实和信息,没有有效的替代方案可以替代拟议的监控技术,从而降低城市的财务成本并减少对公民权利或公民自由的影响。如果市议会确定拟议的监控技术使用符合本部门规定的标准,则市议会可通过采用具有法律效力的监控使用政策授权使用监控技术。
作者: Kevin Cox,通用电气公司首席人力资源官、通用电气航空航天公司首席行政官 Christy Pambianchi,英特尔公司执行副总裁兼首席人才官 Lucien Alziari,保诚金融集团首席人力资源官 Brad Bell,康奈尔大学高级人力资源研究中心主任 Katy George,麦肯锡公司首席人才官 Ashley Goldsmith,Workday 首席人才官 Nickle Lamoreaux,IBM 首席人力资源官 Anthony Nyberg,南卡罗来纳大学达拉摩尔商学院高管继任中心主任 Michael O'Hare,雅诗兰黛公司首席人力资源官 Laura Cococcia,通用电气公司人力资源战略、人才和传播主管 Bryce Duck,英特尔公司人力资源技术、运营和分析副总裁