在提供以患者为中心的优质护理的同时,护士经常需要做出艰难的决定,而且必须考虑许多特定于患者的因素。除了评估价值观和职业道德之外,这些复杂的决定还可以用客观工具来分解,例如实践范围决策框架(NCSBN,2016)。虽然该工具最初旨在帮助确定某项活动是否属于护士的实践范围,但它也可以帮助护士进行客观决策。该框架不仅会提示护士考虑该活动或干预是否符合所有适用的规则和规定,而且后续问题还会提醒护士考虑医疗保健文献、循证实践标准、认证标准以及实践环境的政策和程序。关于人工智能,护士应该熟悉其实践领域的现有标准,以及任何技术或工具的使用如何遵守这些标准。
联合国贸易和发展会议(UNCTAD)在非洲开展了一项试点项目,旨在促进能源和农业部门的技术评估,重点是在塞舌尔、南非和赞比亚进行试点评估。技术评估需要对使用某项技术的社会、经济和环境效益和风险进行批判性和参与性的评估。它可以成为决策者在采购、开发、引进和治理新技术方面做出战略选择的有力工具。尽管新兴技术不断涌现,但撒哈拉以南非洲,或者更广泛地说是发展中国家,在技术评估方面的经验却很少。为了弥补这一差距,UNCTAD 试点项目制定了一套实施技术评估的方法,该方法针对发展中国家的具体需求和挑战。该项目支持可持续发展目标 1、2、3、5、7、8、9、12、13 和 15。
ƒ 故意将重组 DNA 或重组 DNA 衍生的 DNA 或 RNA 转移到一个或多个人类研究对象体内 [第 III-C 节]。有关某些其他可能获得豁免的实验以及例外情况的详细信息,请参阅 NIH 指南的附录 C。 2. NIH 指南豁免某些不会对健康或环境构成威胁的实验。机构生物安全委员会 (IBC) 或首席研究员 (PI) 能否确定某项实验不构成此类威胁并因此获得豁免?NIH 指南第 III-F-6 节列出了不会对健康或环境造成重大风险并因此获得豁免的实验类别。属于此类别的实验类型由 NIH 主任根据 RAC 的建议确定,并在适当的通知和公众评论机会之后进行。PI 和 IBC 不能做出决定
指定,项目是否包括总体规划修正案,该修正案产生的温室气体排放量等于或小于现有指定下产生的估计排放量?如果“是”,请提供现有和拟议指定下的项目估计排放量以供比较,并继续执行步骤 1 的问题 3。如果“否”,则项目的温室气体影响可能很大,必须根据城市指导文件和适用的 CEQA 指南准备温室气体分析。该项目不符合 CAP 的温室气体精简条款。项目必须纳入步骤 2 中确定的每一项措施,以减轻累积温室气体排放影响,除非根据 CEQA 指南第 15091 节确定某项措施不可行。继续并完成项目特定的温室气体分析和清单的第 2 步。
2 前后对比特别容易出现一种称为“回归均值”的错误。即在出现异常高或低的值之后,下一个值通常会更接近平均值(或均值)。例如,如果患者被选中接受某项服务,因为他们被认为对这项服务有更大的需求,那么在接受服务后发现的改善可能反映的是随时间推移的正常(统计)变化。这可能会被误认为是改善。请参阅 https://www.health.org.uk/newsletter-feature/why-before- and-after-analyses-can-give-misleading-results。避免这种错误的最佳方法通常是设立一个比较组,理想情况下是随机选择,如果做不到这一点,则在两个组中匹配参与者。如果这不可能,那么在寻求选择资源丰富或资源匮乏的用户时,一种选择是进行多次基线/之前测量,并根据其平均值进行选择。
美国目前有权通过美国外国投资委员会(“CFIUS”)审查某些入境外国投资。尽管业内通常将其称为“反向 CFIUS”,但与对外国人士投资进行逐笔交易审查的 CFIUS 不同,该计划并不考虑逐笔交易审查流程。相反,该计划将要求各方确定某项交易是被禁止的、需申报的还是无需申报即可允许的,否则可能会因参与禁止交易或未能将需申报的交易通知财政部而受到处罚。这将要求各方确定 (i)“美国人士”是否正在进行或指示 (ii) 与 (iii)“受监管外国人士”——即从事“受监管活动”的“受关注国家人士”——进行“受监管交易”。下面将逐一讨论这些要素。
o 例如,如果使用人工智能图像生成器来开发 CEO 的图像,则应考虑除了人工智能生成器之外,是否还有其他更可靠、更具代表性和更全面的图像来源。• 使用人工智能生成的文本和图像会对现实世界产生影响。公共论坛和文档中发布的图像和文本将来可能会被人工智能生成器使用,从而不断循环利用信息和偏见。• 个人在创建和使用使用人工智能生成的文本或图像时,应进行认真的道德和技术考虑。至少,应引用图像和/或文本并将其标识为机器生成的,并注明所使用的平台、日期和提示。考虑生成器是否适合某项任务不仅要考虑输入/输出,还要考虑输出本身的长期使用。人工智能图像和文本生成器中的偏见:
1990 年《计算机滥用法》(“CMA”)第 1 条的犯罪行为是合理的,因为那些原本可能被定性为数字侵入的行为代表了一种新的刑事不法行为:此类行为损害了计算机、程序或系统的完整性。“黑客”和“黑客行为”,即那些试图“未经授权访问”计算机或数据以及实现这种访问的工具和技术的人,应该受到威慑。这种威慑部分是通过故意扩大 CMA 第 1 条罪行的适用范围来实现的。该罪行表现出早期模式起草的特征;它不将获取计算机访问权限定为犯罪。相反,它将“使计算机执行某项功能”定为犯罪。在广泛地定义该罪行时,为了使其与技术无关且面向未来,像“计算机”这样的关键术语也没有定义。给定的“访问”是否“未经授权”的问题应参考计算机所有者提供的任何同意来确定。
1. 我是否向 AI 提供了敏感或个人信息/数据,以便 AI 将来使用或与未经授权的人共享?2. 这个 AI 是我们企业、KETS 或 KDE 生态系统的一部分,还是由我们可能不熟悉(或没有关系)的人提供的第三方工具?3. 这个 AI 机器人是否希望我授予它访问我所有帐户信息的权限或假装是我?4. 如果该工具可以“免费”使用,那么我是否需要付费?(我的数据、地区数据或我可以访问的其他数据集 - 警惕免费增值模式)5. 使用或共享 AI 生成的产品是否合乎道德? 6. 人工智能的响应可以按原样共享吗,还是需要先进行审查(例如,没有幻觉、无意的偏见)7. 我是否已经询问过我的(经理/主管/知识渊博的人)我使用人工智能工具执行某项特定任务是否会带来我可能看不到的风险?