偏见关键词检索结果

对拒绝动物试验的科学家的偏见

Bias Against Scientists Who Shun Animal Testing

Dancey-Downs & Dalton,独立科学家质疑其有效性

眼见为实——是吗?在线图片如何助长性别偏见

Seeing is believing – or is it? How online images fuel gender bias

一项新研究发现,视觉搜索结果反映并放大了我们的隐性偏见。

解开偏见:必须解决神经成像方法中的种族和表型偏见 | 科学

Untangling bias: Racial and phenotypic bias in neuroimaging methods must be addressed | Science

必须解决神经成像方法中的种族和表型偏见

AI 知道自己在气候变化问题上存在偏见

AI Knows It is Biased on Climate Change

好吧,聊天机器人知道自己有偏见,而不是所有的人工智能。但如今的头条新闻都是关于“人工智能”的,它们实际上只是指这些模仿阅读程度惊人的聊天机器人,所以我顺其自然。这些聊天机器人也什么都不知道,因为他们只是模仿人类的计算机,但说话要容易得多,就好像他们知道自己在做什么一样。

全黑或全白的动物有基于迷信的名声 - 这种偏见会产生实际影响

Animals that are all black or all white have reputations based on superstition − biases that have real effects

想象一下,在一个晴朗清爽的秋日早晨。你刚从附近的咖啡店出来,准备开始新的一天。眼角余光中,你瞥见灌木丛中有什么东西在动。是一只正在为过冬储藏橡子的松鼠吗?还是一只正在为迁徙增肥的知更鸟?当你到达时 […]

人工智能工具在根据种族和性别对求职者姓名进行排名时表现出偏见

AI tools show biases in ranking job applicants’ names according to perceived race and gender

华盛顿大学的研究人员发现,三种最先进的大型语言模型在对简历进行排名时存在明显的种族、性别和交叉偏见。这些模型 85% 的时间偏向与白人相关的名字,只有 11% 的时间偏向与女性相关的名字,并且从未偏向与黑人男性相关的名字而不是与白人男性相关的名字。

隐性偏见:需要消亡的僵尸理论

Implicit Bias: A Zombie Theory That Needs to Die

David Randall,RealClearScience 内隐联想测试 (IAT) 的创建者 Anthony Greenwald 和 Mahzarin Banaji 与......

有偏见的媒体:他们不想看到什么

The Biased Media: What They Make It Their Business <i>Not</i> to See

“土耳其今晚正在轰炸和屠杀库尔德人。没有抗议,没有游行,没有媒体报道,没有联合国的谴责,也没有国际刑事法院对埃尔多安发出逮捕令。自 1914 年以来,土耳其已经杀害了 150 多万库尔德人。停止库尔德人种族灭绝。”—— Hemdad Mehristani,

媒体对哈里斯诉特朗普案的偏见报道

The Biased Media Coverage of Harris v Trump

大多数美国人已经准备好结束选举了。政治广告、电子邮件和短信的不断轰炸让人应接不暇。媒体一直在以极其偏见的视角全天候报道特朗普和哈里斯。媒体研究中心进行了一项研究,发现晚间新闻对总统竞选的报道 […]

斯坦福大学委员会分享有关偏见和包容性机会的发现

Stanford committees share findings on bias and opportunities for inclusivity

在校园对话中,斯坦福大学的穆斯林、阿拉伯和巴勒斯坦社区委员会和反犹太主义和反以色列偏见小组委员会分享了关于促进包容性和审查偏见的研究结果,并挑战了关于中立性的假设。

考虑医疗数据中的偏见有助于防止人工智能扩大种族差异

Accounting for bias in medical data helps prevent AI from amplifying racial disparity

密歇根大学的研究人员表明,黑人患者接受医生用来诊断严重疾病(如败血症)的医学检查的可能性低于白人患者。

密歇根大学研究探讨社交媒体内容审核中的政治偏见如何助长回音室效应

U-M study explores how political bias in content moderation on social media feeds echo chambers

尽管公众的关注导致了企业和公共政策的变化,但算法及其创造者可能并不是社交媒体上政治两极分化的唯一驱动因素。

全黑或全白的动物基于迷信而享有声誉——这种偏见会产生实际影响

Animals that are all black or all white have reputations based on superstition—biases that have real effects

想象一下,这是一个清爽阳光的秋日早晨。你刚离开当地的咖啡店,准备开始新的一天。

美联储的政治偏见:公众怎么看?

Perceived Political Bias of the Federal Reserve: What does public think?

在 NBER 的一篇论文中,裴匡、Michael Weber 和谢诗涵对美国人进行了调查,以了解美联储的独立性:我们对大量具有政治代表性的美国消费者样本(5,205 名参与者)进行了一项调查实验,以研究对美联储 (Fed) 政治立场的看法如何影响宏观经济预期和对美联储的信任。[…]

从黑猫到白灵熊,“迷信、传说和神话可以塑造你的潜意识”——具有实际影响的偏见

From black cats to white spirit bears, 'superstitions, lore and myths can shape your subconscious' − biases that have real effects

一只可怕的黑猫最可怕的地方可能是迷信和传统仅根据动物的颜色塑造了人们对动物的看法和偏见。

数字法庭中的种族偏见:康奈尔大学的研究表明了什么?

Расовые предрассудки в цифровом суде: что показало исследование Корнелла?

科学家们发现了人工智能如何评估重复犯罪的风险。

肥胖儿童在学校的表现更差。原因之一可能是教师偏见

Kids with obesity do worse in school. One reason may be teacher bias

在马里兰州蒙哥马利县她就读的公立小学里,斯蒂芬妮几乎每天都会听到关于她体重的评论。她回忆说,五年级班上的同学叫她“胖子”,而不是她的名字;当她走过时,其他人会低声说:“你想要一个纸杯蛋糕吗?” 一位同学散布谣言说她患有糖尿病。[…] 肥胖儿童在学校表现更差。原因之一可能是教师偏见首先出现在 Hechinger 报告中。

数学公平性:解决算法中的偏见

Mathematical Fairness: Addressing Bias in Algorithms

数学在解决算法偏见和确保公平方面的作用数学公平解决了算法偏见日益增长的担忧,这种偏见可能导致招聘、贷款和刑事司法等领域的歧视。通过使用数学技术来检测和减轻数据和模型设计中的偏见,我们可以确保自动决策的结果更加公平公正。这个新兴领域将道德反思与高级算法相结合,以促进人工智能驱动系统的公平性、透明度和问责制。算法偏见的数学解决方案数学公平:解决算法偏见,实现公正社会在算法和自动决策系统日益影响社会结果的时代——无论是批准贷款、确定保释金、雇用候选人,还是决定如何策划新闻提要——算法的公平性问题已成为一个紧迫的问题。由于这些系统由数学模型和数据驱动,因此要确保其中的公平性,需要深入了解偏见是如何产生