偏见关键词检索结果

'我会歧视':研究暴露了英国雇主对产假的隐藏偏见

'I would discriminate': Study exposes UK employers' hidden bias against maternity leave

关于产假的歧视性观点仍然很普遍,一些英国雇主公开承认她们会避免雇用孕妇。

AI在家庭法院揭示性别偏见

AI reveals gender bias in family courts

当父母在澳大利亚分开时,他们的未来及其子女通常依靠家族法官选择的词语。 UNSW研究人员团队说,但是这些话并不总是沿性别线中立。

认知偏见阻碍了医生

Cognitive Biases Are Holding Back Doctors

蒂莫西·斯普鲁尔(Timothy Spruill),阿克什(Acsh)曾经想过为什么您的例行检查不令人满意?隐藏的思维错误静静地偏向医学判断,导致临床医生给予完全普通的标签...

多语言人工智能通常会增强偏见

Multilingual artificial intelligence often reinforces bias

约翰·霍普金斯(Johns Hopkins)的一项新研究发现,多语言AI特权主导语言,加深鸿沟而不是民主化获取信息

詹姆斯·加尔布雷思(James Galbraith):高级经济学家遇到的崩溃与精英的“技能有偏见的技术变革”理论相矛盾

James Galbraith: Crash in Top Economist Hiring Contradicts Elite-Favoring “Skill Biased Technical Change” Theory

与某些经济学家模型相反,薪水并非经常基于技能或技术重置。他们遵循经济和政治。

迈向数字福祉:使用生成AI检测和减轻社交网络中的偏见

Toward Digital Well-Being: Using Generative AI to Detect and Mitigate Bias in Social Networks

这项研究回答了以下问题:机器学习和人工智能如何帮助我们进行偏见?数字福祉的帖子:使用生成的AI检测和减轻社交网络中的偏见,首先是迈向数据科学的。

机器人道德:偏见,问责制以及机器人的影响变得更加聪明,更多地参与人类社会

Robot ethics: Bias, accountability, and the impact of robots becoming more intelligent and more involved in human society

人工智能现在嵌入了不仅要组装汽车或移动托盘的机器人中,而且还提供食物,提供包裹,协助老年人甚至教孩子们。随着这些系统变得更加自主,道德风险变得不可避免:当机器人做出具有道德,社会或法律后果的决定时会发生什么? […]

有偏见的AI聊天机器人可以在几分钟内摇摆人们的政治观点

Biased AI chatbots can sway people’s political views in minutes

“如果您只是与他们互动几分钟,而我们已经看到了这种强烈的效果,那么当人们与他们互动多年时会发生什么?”

军事人工智能和遵守国际人道主义法的偏见

Bias in Military Artificial Intelligence and Compliance with International Humanitarian Law

本报告介绍了一个研究项目的结果,其主要目的是探讨军事人工智能对国际人道主义法律合规的偏见。

AI可以帮助我们减少雇用偏见吗?有可能,但它需要周围健康的人类价值

Can AI help us reduce hiring bias? It’s possible, but it needs healthy human values around it

AI可能会承诺更公平的招聘,但是新的研究表明,与正确的人类判断力和多样性保障相结合时,它只会减少偏见。

在早期数学课程中接受种族偏见

Taking on racial bias in early math lessons

早期是教授数学基础的关键时期。那时,孩子们学会计数,开始识别形状,并对诸如大小和测量等概念的早期理解。这些年也可能是孩子面对先入为主的数学能力观念的时期,通常是基于[...]在早期数学课程中接受种族偏见的帖子,首先出现在Hechinger报告中。

ven将是:俄罗斯划船者是否可以再次赢得世界杯的奖牌偏见 div>

Весло будет: смогут ли российские гребцы вновь выиграть медальный зачет ЧМ

我们的皮划艇和独木舟在最佳构图中前往意大利

REED学院调查安全负责人提供了有关FBI关于反冰校友的信息 “腐败与非法”:乌米希法审查因涉嫌歧视白人而起诉 是时候为保守派学生准备在校园里为反特朗普偏见做准备的时间 乔治敦U.民主党人,学生政府。对DC中的美联储感到不安:“与之相关”,“危险”

Reed College investigates security chief for giving FBI info on anti-ICE alum

据称,大学校友在6月的暴力抗议期间用岩石击中了冰官。

是时候为保守派学生准备在校园里为反特朗普偏见做准备的时间乔治敦U.民主党人,学生政府。对DC中的美联储感到不安:“与之相关”,“危险”

Georgetown U. Democrats, student gov. upset about feds in DC: ‘concerning,’ ‘dangerous’

特朗普的“恐惧策略”。

使用Coreference解决方案中的置信度差异来研究大语言模型中的交叉偏见

Investigating Intersectional Bias in Large Language Models using Confidence Disparities in Coreference Resolution

大型语言模型(LLMS)取得了令人印象深刻的表现,从而使其广泛采用在资源受限的背景下的决策支持工具,例如招聘和入学。但是,科学共识是AI系统可以反映和加剧社会偏见,在批判性社会环境中使用时对基于身份的伤害的担忧引起了人们的关注。先前的工作通过评估不同语言推理任务中的人口差异来评估LLM的偏见奠定了坚实的基础。在这项工作中,我们扩展了单轴公平评估以检查交叉……

机器学习中算法偏见的主要原因是什么?

What Are the Main Causes of Algorithmic Bias in Machine Learning?

是什么导致算法偏见在机器LearningImagine中只教孩子的一面,然后要求他们做出公正的决定。这有点像从偏见数据中学习时会发生什么。机器学习可能像是一个寒冷,客观数字的世界,但实际上,它是由信息和人民所塑造的。当数据有缺陷或不完整时,算法会继承这些缺陷,从而导致不公平的结果。这称为算法偏见,它可以悄悄地影响从雇用工作到贷款批准到面部认可的一切。原因不仅是技术性的,而且通常反映人类的决定,假设和盲点。了解算法偏差的原因不仅是修复代码。这是为了使人工智能公平,准确和值得信赖。在这篇博客文章中,我们将发现机器学习中算法偏见的主要原因 - 从偏见的数据和抽样错误到反馈循环和不透明的模型。在此处阅

Mizzou图书馆工作人员向偏见团队报告批评“非二进制”人:报告

Mizzou library staffer reported to bias team for criticizing ‘non-binary’ people: report

“只要不是非二元的,trans就可以了,”据称,人说。

只有几条消息,AI Chatbots偏见了人们的政治观点

With just a few messages, biased AI chatbots swayed people’s political views

一项研究揭示了AI Chatbots的偏见会影响用户的政治观点,知识渊博的用户不那么摇摆,强调了教育的重要性。帖子只有几条消息,偏见的AI Chatbots摇摆了人们的政治观点,首先出现在科学询问者上。