Loading...
机构名称:
¥ 1.0

5. 测试人工智能是否存在偏见。人工智能开发生命周期中的所有组织都在某种程度上共同承担责任,确保他们设计和部署的人工智能系统是公平和安全的。这需要在销售或部署之前以及投入运营之后,测试公平性、偏见、稳健性和安全性,并根据需要采取补救措施。所有者还应负责确保其人工智能系统的使用符合反歧视法以及涉及安全、隐私、财务披露、消费者保护、就业和其他敏感情况的法规。对于许多用例,所有者应在产品发布后持续监控或重新测试人工智能模型,以识别和减轻任何导致意外结果的机器学习。政策应该创造一个激励提供商和所有者做好此类测试的环境。这可以在不创建新的、可能繁琐的人工智能特定监管要求的情况下实现,而是通过遵守一套商定的定义、最佳实践和全球标准来实现。

人工智能精准监管

人工智能精准监管PDF文件第1页

人工智能精准监管PDF文件第2页

人工智能精准监管PDF文件第3页

人工智能精准监管PDF文件第4页

人工智能精准监管PDF文件第5页