获取独家产品信息,尽享促销优惠!立即订阅,不容错过
* 限···时··优惠
与数据相关的一个问题是数据是如何被分析和使用的。系统越来越多地使用机器学习技术来理解数据。要开发这些算法,必须对它们进行数据集训练。这些数据集主要是通过现成、方便、可用且不一定代表特定问题的数据开发的。例如,要开发面部识别算法,必须将大量面部输入算法,然后将其标记为“面部”,以便算法知道这是一张面部。如果用于执行此操作的数据主要是白人面孔(历史上的情况如此),那么该算法在其他肤色上的表现就会很差。因此,算法天生就会产生偏见,除非有意纠正,否则它们使用得越多,就越容易“训练”出错。识别先前的隐性偏见本身就存在问题。我们应该如何应对这样一个发现:我们当前实践的准确模型识别出了一种明显的偏见实践?如果我们的算法已经将同事判定为有偏见,而他们的偏见只有通过他们自愿同意参与我们的建模研究才显现出来,那么我们应该如何对待他们呢?