《情报法》 IBM 坚信开发和帮助他人构建负责任的人工智能。早在 2018 年,我们就提出了信任和透明原则 1,其中包括开发和应用可解释和透明的人工智能的关键承诺,目的是增强(而不是取代)人类智能。我们通过不同的举措将这些原则付诸实践 2,例如开发值得信赖的人工智能开源工具包 3 以支持我们的客户迈向值得信赖的人工智能,以及建立跨学科的人工智能伦理委员会。通过我们对欧盟委员会人工智能伦理高级小组的贡献、签署《人工智能伦理罗马呼吁》、我们对技术的道德使用的坚定承诺 4 以及我们对人工智能政策讨论的众多贡献 5 ,我们努力表明技术应该而且可以以负责任的方式开发和部署,而不会妨碍创新。建立信任需要承认与问责制、透明度、公平性和安全性相关的合理担忧,并建立适当的监管机制来管理这些风险,同时继续促进持续的创新和实验——要实现这种平衡,需要采取明确而有针对性的精准监管方法。关于《人工智能法》草案的总体考虑我们赞扬委员会在 2019 年人工智能白皮书和法规草案中的连续性和连贯性,以及在起草高风险人工智能系统的法律要求时遵循委员会人工智能伦理高级专家组的主要建议。我们相信,规则草案建立在正确的原则之上,我们支持采用基于风险的方法来培养对人工智能的信任,而不会妨碍其负责任的发展。我们长期以来一直呼吁通过一种相称的方法进行“精准监管”,监管高风险用例,而不是人工智能技术本身。我们支持这样的观点,即当人工智能系统满足某些标准时,例如严重程度和对人造成某些严重伤害的概率,就应该被视为高风险。
主要关键词