MIT学者说,她正在努力创建“女权主义AI”,这引起了人们对人工智能如何定义“女人”一词的担忧,或者在“性别和AI:Promise and Perirs:Promise and Perils”会议上在哈佛大学上进行了“殖民主义”,这是在哈佛大学上。哈佛大学教授说,为了了解问题,计算机科学教授费尔南达·维加斯(FernandaViégas)首先概述了AI的工作原理。但是,使用AI,他们给计算机提供了大量数据,然后允许其弄清楚自己的规则。但是,AI经常使用“有偏见的”数据来识别模式。例如,AI如何计算“女人”一词的定义是基于其所访问的数据的。“自动完成,听起来很简单,这是非常强大的功能,”Viégas说。 “一切都取决于我们喂养的数据。因此,如果我们将其喂养非常有偏见的数据,我们将获得非常有偏见的系统。”接下来,在小组讨论中,马萨诸塞州理工学院教授凯瑟琳·伊格纳齐奥(Catherine D'Ignazio)表示,数据输入是一个“巨大”和AI的“不可分解的”问题。她教过城市科学和计划,并担任MIT.Machine Learning和AI的数据 +女性主义实验室的主任,是“现状机器”,这意味着它们复制了当今社会中存在的性别偏见。 D'Ignazio Said.among