Loading...
机构名称:
¥ 1.0

一家医院发现其人工智能软件对患者进行了误诊——在测试结果上,它将患者评定为健康,而实际上他们并不健康。一些患者因这种假阴性结果而遭受严重后果。在另一个例子中,一家公司用于招聘面试候选人的人工智能软件被发现系统性地歧视某些个人资料。该公司后来因此被起诉。另一个例子是面部识别人工智能软件拒绝让具有特定种族背景的人使用它,因为它无法将该人归类为合法用户。

人工智能中的责任分配问题

人工智能中的责任分配问题PDF文件第1页

人工智能中的责任分配问题PDF文件第2页

人工智能中的责任分配问题PDF文件第3页

相关文件推荐

2024 年
¥1.0