4.1 使用人工智能工具的输出而未给予适当认可将构成学术不端行为。学生应与教学人员确认评估要求,或向课程协调员、学生支持服务或图书馆寻求有关如何认可人工智能工具输出的建议。
Rizwan Virani 博士是圣哈辛托学院网络安全项目高级总监,负责监督面向学生和专业人士的网络安全教育和培训项目的开发和实施。Rizwan 还担任德克萨斯 A&M 工程推广服务和孤星学院的网络安全兼职讲师,教授网络安全基础知识、框架和标准课程。此外,Rizwan 还担任 alliant 的副董事长,该公司是美国企业领先的商业、数字咨询和网络安全服务提供商。Rizwan 在企业运营、风险管理、网络安全、数据隐私和业务运营咨询方面拥有 20 多年的经验,帮助过数百家来自不同行业的组织应对复杂且不断发展的数字、业务和合规环境。他拥有深厚的工程背景,在转行从事专业服务之前,曾在半导体制造行业担任电气工程师。Rizwan 拥有网络安全和风险管理方面的多项认证,包括 CISSP、CCSP、CISA、CISM 等。
对行业的建议:在医学实践中负责任地使用人工智能对行业的建议:曼尼托巴省医师与外科医师学院 (CPSM) 为行业提供建议,以支持注册人实施 CPSM 的实践标准、实践指示以及道德和专业规范。本建议文件并未定义实践标准,也不应被视为法律建议。一般而言,建议文件是动态的,可能会随时编辑或更新以使其更清晰。请定期参考本文以确保您了解最新的建议。重大变更将通过 CPSM 的新闻通讯传达给注册人;但是,微小的编辑可能只会在文件中注明。序言:注册人必须了解在实践中负责任且合乎道德地使用人工智能 (AI)。本文件主要讨论生成人工智能 (GenAI),但大多数原则可广泛应用于其他形式的 AI。提供的建议主要集中在医疗保健中教育、问责制、透明度、知情同意、保密性和公平性的重要性。还讨论了系统问题。
简介 作为一家集成人工智能 (AI) 的客户体验 (CX) 自动化产品的提供商,Verint 致力于确保其解决方案不仅能为我们的客户带来可观的投资回报,还能以合乎道德、负责任的方式利用人工智能。 Verint 开放平台以数据和人工智能为核心,拥有一流的应用程序和人工智能机器人,可自动执行影响 CX 成本和质量的广泛功能。 本文档重点介绍我们的人工智能战略、我们在执行该战略时遵循的原则以及我们为指导我们使用人工智能而制定的流程、控制和指南。 Verint 人工智能战略 Verint Da Vinci™ AI 是 Verint 开放平台的核心,为客户每天使用的应用程序提供支持。 为了跟上人工智能行业的快速创新步伐,Verint 的人工智能模型开发是一种开放式方法,该战略融合了专有模型和第三方模型。 我们对人工智能的开放态度意味着客户可以对长期投资 Verint Da Vinci AI 充满信心。
参议院关于使用人工智能工具和学术诚信的决议鉴于第 5 条第 41301 款和加州社区学院校长办公室法律意见 07-12 和 95-31 号通过概述学术和职业道德及纪律处分来促进学术诚信并旨在阻止学术不诚实行为;鉴于教育法典 76224(a) 规定,在没有错误、欺诈、恶意或不称职的情况下,教师对成绩确定拥有最终决定权;鉴于人工智能 (AI) 进步神速,OpenAI 的 ChatGPT、人工智能驱动的 Bing 和谷歌的 Bard 等生成技术已经创造出强大的工具,学生可以借此对非个人努力的查询生成强有力的答案,并可能导致与学术诚信有关的潜在问题和道德困境;鉴于,众多学术部门和项目已经认识到生成式 AI 工具的变革潜力,并积极引导学生负责任且合乎道德地使用这些工具;鉴于,与此相反,有些学术部门和项目主张彻底禁止生成式 AI 工具,并对其对学术诚信和教育过程的潜在影响表示担忧;鉴于,塞里托斯学院缺乏专门针对和规范生成式 AI 工具使用的全面政策;鉴于,学生未经授权和不当使用生成式 AI 工具的现象日益普遍。塞里托斯学院教务委员会确认,接受或拒绝集成生成式 AI 工具的决定仍由个别教师自行决定。进一步决议:参议院要求将以下不诚实行为的例子纳入学区的官方学术诚信/不诚实政策中:
本次演讲将重点介绍 UNC Health 人工智能 (AI) 的发展历程,从起步阶段到负责任地实施工具,这些工具可提高提供商在提供以患者为中心的优质护理、响应患者需求以及继续确保患者护理文档完整方面的满意度。本次演讲还将提供在动态医疗环境中实施和监控 AI 工具使用方面的合规性和隐私考虑因素。
各州在使用人工智能时必须考虑到人工智能系统可能会延续有害偏见这一事实,并采取措施减轻这些风险,以避免基于种族、肤色、民族、性别、宗教、年龄、血统或国籍、残疾、退伍军人身份、婚姻状况、性取向、性别认同、基因信息或任何其他受法律保护的分类对个人或社区造成歧视或不同影响。
主管部门应根据国家情况分析的结果、世界动物卫生组织、世卫组织、粮农组织和环境署关于抗菌素耐药性的全球行动计划 (GAP) 的目标以及制定抗菌素耐药性国家行动计划的现有指导,设计和监督国家行动计划相关部分的实施。主管部门应与动物卫生、植物卫生、环境和公共卫生专业人员以及其他相关利益相关者合作,采取“同一个健康”方法,促进负责任和谨慎地使用抗菌剂,作为减少和遏制抗菌素耐药性国家战略的一部分。此外,主管部门应为设计和实施国家行动计划相关部分(包括沟通战略)分配预算资源。主管部门还应定期监测和评估国家行动计划。
GenAI 有可能影响各种行业和领域,包括知识工作、媒体和娱乐以及医疗保健,因为它可以自动创建内容,并允许企业更快、更高效地产生新的想法和产品 (Daugherty & Wilson, 2019)。值得注意的是,GenAI 仍处于发展的早期阶段;在充分发挥其潜力之前,仍有许多挑战和限制需要检验。GenAI 可以改变推广教育者的工作和期望。推广必须考虑两个主要问题:GenAI 对推广相关性的影响以及如何最大限度地发挥 GenAI 的优势以改进推广。随着 GenAI 的普及,如果我们想在编程方面保持相关性和有效性,推广必须确定如何将其纳入工作职能。同时,推广教育者有效利用和整合 GenAI 到工作中的能力将影响推广未来相关性和有效性。 GenAI 的普及有可能颠覆推广部门的本质——知识产业——通过自动化目前由推广部门员工执行的重复性或可预测的任务。
鉴于人工智能 (AI) 和机器学习 (ML) 方法在环境科学各个方面的应用日益广泛,我们有必要就人工智能的道德和负责任使用展开讨论。事实上,我们可以从其他引入人工智能的领域学到很多东西,这些领域往往是出于好意,但往往导致意想不到的社会后果,例如在刑事司法系统中硬编码种族偏见或通过金融系统加剧经济不平等。一个常见的误解是,环境科学在使用人工智能时不会受到这种意外后果的影响,因为大多数数据来自观察,而人工智能算法基于数学公式,而数学公式通常被视为客观的。在本文中,我们认为情况可能恰恰相反。使用具体示例,我们展示了人工智能的使用在环境科学中引入类似后果的许多方式。本文将激发这方面的讨论和研究工作。作为一个社区,我们应该避免通过引入人工智能重复其他领域所犯的任何可预见的错误。事实上,只要采取适当的预防措施,人工智能可以成为帮助减少气候和环境不公正的绝佳工具。我们主要关注天气和气候的例子,但结论广泛适用于整个环境科学。