华盛顿特区——今天,美国商务部工业和安全局 (BIS) 发布了一项规则,对俄罗斯和白俄罗斯实施进一步限制。美国商务部采取这些行动是为了提高美国管制的有效性,并使其对俄罗斯和白俄罗斯的管制与美国盟友实施的管制更好地保持一致。美国商务部工业和安全部副部长艾伦·埃斯特维兹表示:“正如许多分析所表明的那样,俄罗斯正在努力修复、更换和补充其武器库,今天的行动将继续削弱他们维持对乌克兰军事侵略的能力。”“我们将继续与我们的国际伙伴合作,在必要时加强我们的集体限制,以最大限度地发挥我们的影响,并向俄罗斯及其支持者表明,我们将毫不犹豫地采取行动进一步孤立他们。”美国商务部出口管理局助理部长西娅·D·罗兹曼·肯德勒表示:“今天的行动表明,美国和我们的国际伙伴将继续与乌克兰站在一起,并限制俄罗斯获取可能用于支持军事能力的技术和物品。” “这也向那些寻求支持俄罗斯军队的人发出了一个明确的信息,我们将毫不犹豫地采取强有力的措施,切断他们的军事力量。”
美国,john.sloan@faa.gov 摘要 美国联邦航空管理局 (FAA) 商业空间运输办公室正在为美国法律中限制商业载人航天 (HSF) 安全法规制定的条款的到期做准备。自 2004 年《商业航天发射修正案》通过以来,一直有一个“学习期”,或通常所说的“暂停期”,用于增加额外的安全法规来保护飞行器上的人员。虽然 FAA 于 2006 年针对 2004 年的法律发布了有限的载人航天法规,但美国国会也表示“随着行业的成熟,管理载人航天的监管标准必须不断发展,以便法规既不会扼杀技术发展,也不会让机组人员或航天飞行参与者面临可避免的风险,因为公众开始期望该行业能为机组人员和航天飞行参与者提供更高的安全性”。美国国会已三次延长学习期的到期时间。目前的到期日期是 2023 年 10 月 1 日。随着各行业的飞行率不断提高,美国国会正在考虑是延长学习期还是让它到期。2021 年,FAA 批准了八次商业发射(轨道和亚轨道)和三次载人再入。2022 年迄今为止,FAA 已批准了另外五次商业发射。本文旨在描述 FAA 当前为解决商业发射和再入飞行器上的乘员安全问题而开展的活动。FAA 正在开展三项主要工作,为未来的载人航天法规做准备。首先,FAA 正在建立一个航空航天规则制定委员会 (SpARC),该委员会将召集发射和再入运营商、政府机构、学术界和其他相关方,讨论载人航天法规的潜在框架。其次,FAA 目前正在努力审查和更新 2014 年载人航天飞行乘员安全建议措施。 FAA 正在更新和添加有关运营商如何表明他们遵守建议做法的更多信息,并吸取最近载人航天商业经验中的经验教训。FAA 的第三个重点领域是通过 ASTM International 和国际标准化组织等组织制定共识标准。FAA 许可的运营商在设计和操作 HSF 飞行器时可以使用这些标准。本文对正在考虑采用模型来制定商业太空运输国家框架的行业和国家很有用。* 曾在 FAA/AST 任职
美国商务部工业和安全局技术评估办公室民用航天工业基地调查与评估概述 商务部工业和安全局 (BIS) 技术评估办公室 (OTE) 正在与美国国家航空航天局 (NASA)、行政长官办公室、美国国家海洋和大气管理局 (NOAA)、国家环境卫星、数据和信息服务 (NESDIS) 合作,对美国民用航天工业基地 (CSIB) 进行全面评估。 就本研究而言,国内民用航天工业基地包括非军事/国防部太空相关工作,主要支持 NASA 和 NOAA,在较小程度上支持联邦航空管理局、联邦通信委员会和能源部,包括主承包商、商业公司、联邦资助的研究和开发中心 (FFRDC)、大学和实验室。 本次调查的主要目标是更好地了解国内 CSIB 供应链网络。 收集的数据将有助于确定参与 CSIB 的组织的结构和相互依赖关系,尤其是 NASA 和 NOAA 系统和子系统。这项工作将使 NASA 和 NOAA 能够了解并应对与制造来源减少和材料短缺 (DMSMS)、外国采购和依赖、网络安全事件、关键矿物和材料、COVID-19 大流行影响和其他挑战相关的供应链缺陷和中断。由此产生的数据和后续分析将使行业代表和政府政策官员能够更好地监测趋势、衡量行业绩效并提高对潜在问题的认识。美国 CSIB 下属的约 2,000 个组织将参与这项强制性数据收集。每个组织的贡献对于确保对 NASA 和 NOAA 的供应链进行有意义、可靠的分析都至关重要,这旨在改善 NASA 和 NOAA 的任务执行。OTE 过去曾与多个工业领域成功合作,包括太空、国防、医疗保健、半导体和战略材料,我们期待在本次收集中开展类似的互利合作。法律保护和要求 OTE 利用 1950 年《国防生产法》(DPA)修正案来收集和保护调查受访者提交的商业专有信息。此外,第 13603 号行政命令授权商务部评估美国工业基础支持国家安全和关键项目需求的能力,并制定政策建议以提高特定国内产业的国际竞争力。从调查受访者处收集的信息只能以汇总形式公开使用,这意味着此类报告绝不会通过名称识别您的具体组织,也不会泄露专有信息。调查回复信息不受《信息自由法》(FOIA)请求的约束。
德国商业银行股份公司(“德国商业银行”,以及德国商业银行股份公司与其子公司合称“德国商业银行”)特此提交其 2022 年缩减美国解决方案计划(“2022 年计划”),以遵守美国联邦储备系统理事会(“FRB”)和联邦存款保险公司(“FDIC”)发布的最终规则,以根据经修订的《多德——弗兰克华尔街改革和消费者保护法》第一章第 165(d) 节(“DFA 165(d) 规则”)实施解决方案计划要求。根据 DFA 165(d) 规则,德国商业银行是每三年提交一次的缩减申报人,该规则要求德国商业银行每三年向 FRB 和 FDIC 提交一份计划,以便在发生重大困境或失败时迅速有序地解决其美国业务。
FinRegLab:研讨会——“人工智能与经济:为负责任和包容的人工智能规划道路”联合活动,邀请著名政策制定者参加,重点关注金融服务领域的负责任人工智能。华盛顿特区,2022 年 4 月 22 日——FinRegLab 将与美国商务部、美国国家标准与技术研究所 (NIST) 和斯坦福以人为本人工智能研究所 (HAI) 合作,于 2022 年 4 月 27 日举办一场研讨会,汇集政府、行业、民间社会和学术界的领导人,探讨人工智能和机器学习在不同经济部门部署带来的潜在机遇和挑战,特别关注金融服务和医疗保健。已确认的发言人包括商务部副部长 Don Graves;参议员 Joni Ernst;代理货币监理署署长 Michael Hsu;万事达卡执行副总裁兼首席数据官 JoAnn Stonier;富国银行执行副总裁兼模型风险主管 Agus Sudjianto、斯坦福大学商学院教授兼 HAI 副主任 Susan Athey 博士、布鲁金斯学会技术创新中心主任 Nicol Turner Lee 博士以及哈佛大学计算与社会研究中心博士后研究员 Manish Raghavan 博士。演讲者和小组成员将讨论研究、政策建议和新兴行业实践。FinRegLab 首席执行官兼主任 Melissa Koide 表示:“人工智能与新型数据相结合,为改善金融包容性和平等性提供了巨大的潜力。然而,也存在加剧偏见和排斥的巨大风险。认真、有针对性地研究消费者受到的影响对于制定正确的规则至关重要。” FinRegLab 还将于 4 月 28 日举办一场虚拟会议,详细介绍该组织和斯坦福大学商学院 Laura Blattner 教授和 Jann Spiess 教授就机器学习在信用承保中的应用开展的研究,特别关注机器学习模型对可解释性和公平性的潜在影响。这项研究对当前可用工具的性能和功能进行了实证评估,这些工具旨在帮助贷方开发、监控和管理机器学习承保模型。媒体成员如有兴趣亲临或以虚拟方式参加研讨会或寻求评论,请联系 Alex Bloomfield,邮箱地址为 alex.bloomfield@finreglab.org。有关研讨会的更多信息,包括所有演讲者和小组讨论,请访问此处的活动页面。
根据我们的经验和内部分析,美国和韩国之间的半导体制造资本支出和运营成本差异主要不是由于政府激励措施的差异。美国和其他主要制造地点在结构和经济因素方面存在明显差异。事实上,在总部所在国家以外的地方运营研发或制造设施的公司会产生大量额外的管理费用。这一点很重要,因为美国的激励措施不应被简单地认为是“抵消”了其他政府的激励措施。如果不谨慎应用,联邦激励驱动的投资可能会扰乱该行业数年的市场供应动态。
采购某些外国生产的物品,俄罗斯 FDP 规则对以下外国生产的物品实施管制:(i) 某些受 EAR 管制的美国原产软件或技术的直接产品;或 (ii) 由某些工厂或其主要部件生产,而这些工厂或部件本身是某些受 EAR 管制的美国原产软件或技术的直接产品。当已知外国生产的物品目的地为俄罗斯或将被纳入或用于在俄罗斯生产或目的地为俄罗斯的任何零件、部件或设备的生产或开发时,适用此管制。俄罗斯 FDP 规则不适用于将被指定为 EAR99(CCL 上未列出的物品)的外国生产的物品,其中包括俄罗斯人民使用的许多消费品。 • 为俄罗斯军事最终用户制定了新的外国直接产品规则(“俄罗斯-MEU FDP”
首先,经合组织或人工智能办公室等组织使用了广泛的定性描述。8 这种类型的描述允许与更广泛的非专家讨论人工智能。但是,它不够精确,无法量化人工智能的采用或支出,因为它没有概述具体的衡量指标。麦肯锡 2020 年全球人工智能状况研究中使用的基于使用的定义提供了基于业务功能的分类。它有助于量化人工智能的采用,并且可能比基于技术的定义本身提供更多的见解。但是,这个定义的缺点是它没有提供有关什么是人工智能技术的明确信息,并且在调查的背景下可能会在不同的组织或不使用人工智能的活动中不一致地捕捉人工智能活动。910
C_TEC 赞扬 NIST 率先召集利益相关者“帮助告知、改进和指导 AI RMF 的开发”,以协助可信和负责任地使用 AI 技术 1 。C_TEC 强烈同意由利益相关者主导、基于共识的框架可以促进 AI 领域的数字创新。 C_TEC 最近发布的关于值得信赖的人工智能的报告 2 进一步表明了这一点,其中 54% 的受访者表示,他们支持政府推动的开源工具和框架,这些工具和框架可以帮助推动新人工智能技术的发展。人们普遍认为,一个平衡和创新的框架可以帮助减轻人工智能带来的任何风险。这就是为什么 C_TEC 一直倡导建立人工智能风险管理框架。 3