Seeing is believing – or is it? How online images fuel gender bias
一项新研究发现,视觉搜索结果反映并放大了我们的隐性偏见。
AI Knows It is Biased on Climate Change
好吧,聊天机器人知道自己有偏见,而不是所有的人工智能。但如今的头条新闻都是关于“人工智能”的,它们实际上只是指这些模仿阅读程度惊人的聊天机器人,所以我顺其自然。这些聊天机器人也什么都不知道,因为他们只是模仿人类的计算机,但说话要容易得多,就好像他们知道自己在做什么一样。
想象一下,在一个晴朗清爽的秋日早晨。你刚从附近的咖啡店出来,准备开始新的一天。眼角余光中,你瞥见灌木丛中有什么东西在动。是一只正在为过冬储藏橡子的松鼠吗?还是一只正在为迁徙增肥的知更鸟?当你到达时 […]
AI tools show biases in ranking job applicants’ names according to perceived race and gender
华盛顿大学的研究人员发现,三种最先进的大型语言模型在对简历进行排名时存在明显的种族、性别和交叉偏见。这些模型 85% 的时间偏向与白人相关的名字,只有 11% 的时间偏向与女性相关的名字,并且从未偏向与黑人男性相关的名字而不是与白人男性相关的名字。
Implicit Bias: A Zombie Theory That Needs to Die
David Randall,RealClearScience 内隐联想测试 (IAT) 的创建者 Anthony Greenwald 和 Mahzarin Banaji 与......
The Biased Media: What They Make It Their Business <i>Not</i> to See
“土耳其今晚正在轰炸和屠杀库尔德人。没有抗议,没有游行,没有媒体报道,没有联合国的谴责,也没有国际刑事法院对埃尔多安发出逮捕令。自 1914 年以来,土耳其已经杀害了 150 多万库尔德人。停止库尔德人种族灭绝。”—— Hemdad Mehristani,
The Biased Media Coverage of Harris v Trump
大多数美国人已经准备好结束选举了。政治广告、电子邮件和短信的不断轰炸让人应接不暇。媒体一直在以极其偏见的视角全天候报道特朗普和哈里斯。媒体研究中心进行了一项研究,发现晚间新闻对总统竞选的报道 […]
Stanford committees share findings on bias and opportunities for inclusivity
在校园对话中,斯坦福大学的穆斯林、阿拉伯和巴勒斯坦社区委员会和反犹太主义和反以色列偏见小组委员会分享了关于促进包容性和审查偏见的研究结果,并挑战了关于中立性的假设。
Accounting for bias in medical data helps prevent AI from amplifying racial disparity
密歇根大学的研究人员表明,黑人患者接受医生用来诊断严重疾病(如败血症)的医学检查的可能性低于白人患者。
U-M study explores how political bias in content moderation on social media feeds echo chambers
尽管公众的关注导致了企业和公共政策的变化,但算法及其创造者可能并不是社交媒体上政治两极分化的唯一驱动因素。
Perceived Political Bias of the Federal Reserve: What does public think?
在 NBER 的一篇论文中,裴匡、Michael Weber 和谢诗涵对美国人进行了调查,以了解美联储的独立性:我们对大量具有政治代表性的美国消费者样本(5,205 名参与者)进行了一项调查实验,以研究对美联储 (Fed) 政治立场的看法如何影响宏观经济预期和对美联储的信任。[…]
Расовые предрассудки в цифровом суде: что показало исследование Корнелла?
科学家们发现了人工智能如何评估重复犯罪的风险。
Kids with obesity do worse in school. One reason may be teacher bias
在马里兰州蒙哥马利县她就读的公立小学里,斯蒂芬妮几乎每天都会听到关于她体重的评论。她回忆说,五年级班上的同学叫她“胖子”,而不是她的名字;当她走过时,其他人会低声说:“你想要一个纸杯蛋糕吗?” 一位同学散布谣言说她患有糖尿病。[…] 肥胖儿童在学校表现更差。原因之一可能是教师偏见首先出现在 Hechinger 报告中。
Mathematical Fairness: Addressing Bias in Algorithms
数学在解决算法偏见和确保公平方面的作用数学公平解决了算法偏见日益增长的担忧,这种偏见可能导致招聘、贷款和刑事司法等领域的歧视。通过使用数学技术来检测和减轻数据和模型设计中的偏见,我们可以确保自动决策的结果更加公平公正。这个新兴领域将道德反思与高级算法相结合,以促进人工智能驱动系统的公平性、透明度和问责制。算法偏见的数学解决方案数学公平:解决算法偏见,实现公正社会在算法和自动决策系统日益影响社会结果的时代——无论是批准贷款、确定保释金、雇用候选人,还是决定如何策划新闻提要——算法的公平性问题已成为一个紧迫的问题。由于这些系统由数学模型和数据驱动,因此要确保其中的公平性,需要深入了解偏见是如何产生