利用人工智能减轻青少年危险行为:范围界定审查方案 Hamidreza Sadeghsalehi a 和 Hassan Joulaei a,* a 伊朗设拉子医科大学健康研究所卫生政策研究中心 * 通讯作者(joulaei_h@yahoo.com) 青少年特别容易从事暴力、无保护性行为和药物滥用等危险行为,这些行为会对他们的健康和发展产生重大的负面影响。人工智能 (AI) 的最新进展为解决这些行为提供了创新的解决方案,但关于基于 AI 的干预措施的有效性和实施的证据仍然零散。本范围界定审查旨在系统地探索和绘制旨在减少青少年危险行为的基于 AI 的干预措施的文献。本综述将遵循 Arksey 和 O'Malley (2005) 概述并由 Levac、Colquhoun 和 O'Brien (2010) 改进的方法框架,符合 Joanna Briggs 研究所的指导方针。PRISMA 范围界定综述扩展 (PRISMA-ScR) 将指导报告。搜索策略将在 PubMed、Scopus、Web of Science 核心合集、CINAHL、PsycINFO、Cochrane 对照试验中心注册库、Embase、SID 和 Magiran 中执行,重点关注截至 2024 年 6 月以英语和波斯语发表的文章。两名独立审阅者将使用 Rayyan 筛选标题和摘要,然后对相关研究进行全文筛选。数据将使用标准化表格绘制图表,差异将通过讨论或咨询第三位审阅者解决。数据将以描述性方式综合并以表格、图形和图表的形式呈现。关键词:青少年、人工智能、危险行为、范围审查、干预措施
经过 2023 年的磋商,加拿大食品检验局在更新其指导文件《新型饲料评估指南:植物来源》时确认,源自基因编辑植物的饲料将以与任何其他植物源饲料相同的方式进行监管。这些饲料将根据产品的特性或特征进行监管,而不是根据开发方法。因此,使用基因编辑技术生产的植物源饲料只有在任何未列入附表 IV 或 V 中的成分,或者某种成分具有新型性状,意味着它不再与附表 IV 或 V 中列出的常规成分具有特征相似性时,才会作为新型饲料进行监管。在具有新颖性的情况下,饲料将需要经过加拿大食品检验局的上市前评估和批准,任何新型饲料成分,无论是传统开发的还是通过生物技术衍生的,也都需要这样做。该更新指南与美国 FDA 对通过基因编辑技术开发的植物源动物食品的监管方法一致;两国都是根据植物性状/特性来确定新颖性,而不是基于开发过程/方法。
7. 数据保护法是基于风险的。负责处理个人数据的组织应该识别风险、减轻风险并能够展示他们如何实现这一点。对人们及其权利的风险的严重性和可能性将在很大程度上取决于人工智能的应用环境和所涉及人员的情况。通过让组织承担责任,我们允许他们采用最适合其环境和运营目标的方法。
在科罗拉多州议会 2021 年会议期间,众议院法案 21-1317 获得通过并获得资助,该法案要求科罗拉多州公共卫生学院 (ColoradoSPH) 审查关于高效大麻和 THC(Delta-9 四氢大麻酚)浓缩物对健康影响的证据,并在系统审查之后开展有关这些产品的教育活动。该法案的通过是出于对大麻市场变化会导致科罗拉多州人(尤其是青少年和年轻人)接触潜在危险剂量的 THC 的担忧。立法机构成员曾考虑为成人大麻市场上销售的产品设定最高合法 THC 浓度以降低风险的可能性,但得出结论认为相关科学证据太不确定。委托进行系统审查是下一步的适当举措,因为它将全面展示高浓度大麻和 THC 浓缩物的科学文献状况。
两党政策中心 (BPC) 提交了以下评论,以表达对美国财政部拟议的 45X 先进制造业生产税收抵免指南 i 的担忧,该指南破坏了税收抵免旨在加强国内关键矿产产能的目的。BPC 建议美国财政部对拟议规则进行修改,使其与国会的意图保持一致,并确保税收抵免能够适当激励对国内关键矿产项目的投资。特别是,这应该将与原材料开采或采购相关的成本纳入合格项目的“生产成本”定义中。这一变化将大幅增加美国关键矿产加工项目的税收抵免价值。目前的指导方针不包括采购原材料的成本,这相当于为制造衬衫提供税收抵免,同时忽略了采购生产衬衫所需的棉花的成本。这一指导方针的结果将是美国关键矿产部门的总体投资减少,使美国经济依赖中国占主导地位的关键矿产部门,从而严重影响美国的国家安全。矿物开采和收购成本需要纳入 45X
1.2 在我们监管的行业中使用人工智能 (AI) 并不是什么新鲜事,但最近的创新已广泛采用人工智能来创建内容。人工智能已经存在了几十年,从 20 世纪 80 年代能够执行简单任务的早期算法发展到今天正在改变社会、业务流程和消费者体验的复杂系统。人工智能转型受到一系列关键技术的推动,包括机器学习 (ML) 2 、自然语言处理 (NLP) 3 、计算机视觉 4 和语音识别 5 ,重新定义了机器功能的极限。虽然更高级的人工智能形式已经开发了一段时间,但在过去的一年里,生成式人工智能 (GenAI) 的主流出现和采用标志着人工智能的一个关键飞跃,因为它能够生成新内容(文本、图像、视频和音频),似乎以前所未有的规模模仿人类的创造力和智慧。
4. 法定披露制度并不要求检察官向被告提供中立材料或对被告不利的材料 1 。这些材料可以列在时间表上,提醒被告其存在,但无需披露:检察官不应披露他们不需要披露的材料,因为这会给审判过程的参与者带来过重负担,分散对相关问题的注意力,并可能导致不合理的拖延。披露应以深思熟虑的方式完成, 2 根据案件中的问题,而不是简单地作为时间表的完成练习。 3 检察官需要考虑案件的内容、审判中可能出现的问题以及这会如何影响合理的调查线索、哪些材料是相关的以及材料是否符合披露标准。
近年来,人工智能 (AI) 应用的使用量出现了惊人的增长,带来了许多好处和便利。然而,这种扩展也引发了道德问题,例如隐私泄露、算法歧视、安全性和可靠性问题、透明度和其他意想不到的后果。为了确定是否存在关于应管理 AI 应用的道德原则的全球共识,并为未来法规的制定做出贡献,本文对全球公共机构、学术机构、私营公司和民间社会组织发布的 200 项 AI 使用治理政策和道德指南进行了荟萃分析。我们确定了至少 17 条在我们作为开源数据库和工具发布的数据集的政策和指南中普遍存在的共鸣原则。我们提出了进行全球规模分析研究的局限性,并对我们的研究结果进行了批判性分析,提出了应纳入未来监管工作的共识领域。与这项工作相关的所有组件都可以在这个 URL 中找到。
自本世纪初以来,欧盟一直面临一系列危机:银行业危机(2008-2014 年)、主权债务危机(2009 年 - 2010 年代中后期)、移民危机(2015 年至今)、新冠疫情(2019 年至今)以及俄罗斯对乌克兰的侵略战争(2022 年至今)。得益于多种金融和经济政策以及大量的法律制度创造力,1 欧盟成功遏制了这些危机并限制了其对经济的影响。今天,欧盟面临的挑战不但没有减少,反而越来越复杂,正如欧洲理事会在 2023 年 3 月 23 日的结论中明确指出的那样:气候变化、地缘政治局势、能源价格、反复的供应链冲击、人口趋势、劳动力短缺、增长和创新差距。结论是,欧盟比以往任何时候都更需要建立一个强劲且面向未来的经济,以确保长期繁荣。为了实现这一目标,欧洲理事会呼吁“在所有政策领域采取综合性方法,提高整个欧洲大陆经济基础的生产力和增长,同时深化内部市场并加强工业、农业和贸易政策”。它补充说,欧盟将通过加强其复原力和生产力、促进融资、瞄准可负担能源、减少战略依赖、投资未来技能以及使其经济、工业和技术基础适应绿色和数字化转型而不让任何人掉队来确保其竞争力。2 欧洲理事会打算在 2024 年 6 月的会议上讨论在这方面取得的进展,届时将受益于欧洲理事会委托意大利前总理莱塔撰写的内部市场未来报告,该报告将于 2024 年 3 月发布,以及欧盟委员会主席冯德莱恩委托另一位意大利前总理(兼欧洲央行行长)马里奥·德拉吉撰写的欧盟竞争力未来报告,该报告将于 2025 年发布。