机构名称:
¥ 2.0
• 其次,BSA 支持要求人工智能部署者为受到人工智能系统负面影响的人建立提出担忧或投诉的渠道。最近关于高风险人工智能强制性护栏的磋商(“护栏磋商”)中也提出了这一点,该磋商根据拟议的护栏 7(为受到人工智能系统影响的人建立挑战结果使用的流程)。4 作为一般原则,BSA 同意人们在与高风险人工智能系统互动时应得到通知,并且重要的是确保消费者能够行使现有权利——这些现有的消费者权利适用于与人工智能相关的决策。BSA 还支持将此要求限制在面向消费者的部署者身上,因为他们是与最终用户交互的实体,因此最适合履行此类义务。