'I would discriminate': Study exposes UK employers' hidden bias against maternity leave
关于产假的歧视性观点仍然很普遍,一些英国雇主公开承认她们会避免雇用孕妇。
AI reveals gender bias in family courts
当父母在澳大利亚分开时,他们的未来及其子女通常依靠家族法官选择的词语。 UNSW研究人员团队说,但是这些话并不总是沿性别线中立。
Cognitive Biases Are Holding Back Doctors
蒂莫西·斯普鲁尔(Timothy Spruill),阿克什(Acsh)曾经想过为什么您的例行检查不令人满意?隐藏的思维错误静静地偏向医学判断,导致临床医生给予完全普通的标签...
Multilingual artificial intelligence often reinforces bias
约翰·霍普金斯(Johns Hopkins)的一项新研究发现,多语言AI特权主导语言,加深鸿沟而不是民主化获取信息
Toward Digital Well-Being: Using Generative AI to Detect and Mitigate Bias in Social Networks
这项研究回答了以下问题:机器学习和人工智能如何帮助我们进行偏见?数字福祉的帖子:使用生成的AI检测和减轻社交网络中的偏见,首先是迈向数据科学的。
人工智能现在嵌入了不仅要组装汽车或移动托盘的机器人中,而且还提供食物,提供包裹,协助老年人甚至教孩子们。随着这些系统变得更加自主,道德风险变得不可避免:当机器人做出具有道德,社会或法律后果的决定时会发生什么? […]
Biased AI chatbots can sway people’s political views in minutes
“如果您只是与他们互动几分钟,而我们已经看到了这种强烈的效果,那么当人们与他们互动多年时会发生什么?”
Bias in Military Artificial Intelligence and Compliance with International Humanitarian Law
本报告介绍了一个研究项目的结果,其主要目的是探讨军事人工智能对国际人道主义法律合规的偏见。
Can AI help us reduce hiring bias? It’s possible, but it needs healthy human values around it
AI可能会承诺更公平的招聘,但是新的研究表明,与正确的人类判断力和多样性保障相结合时,它只会减少偏见。
Taking on racial bias in early math lessons
早期是教授数学基础的关键时期。那时,孩子们学会计数,开始识别形状,并对诸如大小和测量等概念的早期理解。这些年也可能是孩子面对先入为主的数学能力观念的时期,通常是基于[...]在早期数学课程中接受种族偏见的帖子,首先出现在Hechinger报告中。
大型语言模型(LLMS)取得了令人印象深刻的表现,从而使其广泛采用在资源受限的背景下的决策支持工具,例如招聘和入学。但是,科学共识是AI系统可以反映和加剧社会偏见,在批判性社会环境中使用时对基于身份的伤害的担忧引起了人们的关注。先前的工作通过评估不同语言推理任务中的人口差异来评估LLM的偏见奠定了坚实的基础。在这项工作中,我们扩展了单轴公平评估以检查交叉……
What Are the Main Causes of Algorithmic Bias in Machine Learning?
是什么导致算法偏见在机器LearningImagine中只教孩子的一面,然后要求他们做出公正的决定。这有点像从偏见数据中学习时会发生什么。机器学习可能像是一个寒冷,客观数字的世界,但实际上,它是由信息和人民所塑造的。当数据有缺陷或不完整时,算法会继承这些缺陷,从而导致不公平的结果。这称为算法偏见,它可以悄悄地影响从雇用工作到贷款批准到面部认可的一切。原因不仅是技术性的,而且通常反映人类的决定,假设和盲点。了解算法偏差的原因不仅是修复代码。这是为了使人工智能公平,准确和值得信赖。在这篇博客文章中,我们将发现机器学习中算法偏见的主要原因 - 从偏见的数据和抽样错误到反馈循环和不透明的模型。在此处阅
With just a few messages, biased AI chatbots swayed people’s political views
一项研究揭示了AI Chatbots的偏见会影响用户的政治观点,知识渊博的用户不那么摇摆,强调了教育的重要性。帖子只有几条消息,偏见的AI Chatbots摇摆了人们的政治观点,首先出现在科学询问者上。