偏见关键词检索结果

发现维基百科多语言内容中隐藏的偏见

Finding hidden biases in Wikipedia's multilingual content

新工具可分析和解决不同语言版本之间的文化差异,为更平衡的信息铺平道路

人工智能容易产生“我们与他们”的偏见

AI is prone to ‘us vs. them’ bias

“随着人工智能越来越融入我们的日常生活,理解和解决这些偏见至关重要……”

印第安纳大学校长向自己的偏见团队报告

Indiana University president reported to her own bias team

校长 Pamela Whitten 面临两项偏见投诉。与此同时,该大学的偏见团队面临法律挑战。

被 BAMMed 了吗?如何减轻 L&D 中的偏见?

Got BAMMed? How To Mitigate Bias In L&D?

本文讨论了如何减轻 L&D 中的偏见,使用首字母缩略词 BAMM 来识别它们:偏见、假设、神话和误解。本文首次发表于 eLearning Industry。

生物学不是偏见

Biology Is Not Bigotry

Jerry Coyne,《为什么进化是真实的》 这就是故事。我不仅是“自由”组织的成员和支持者......

我知道我有偏见,但我认为这是教师最好的资源

I Know I’m Biased, But Here’s What I Think Is The Best Resource Anywhere For Teachers

我知道我有偏见,因为过去十三年来,我一直在《教育周刊》上撰写课堂问答博客,但老实说,我想不出比这更好的教师资源了。教师在课堂上遇到的几乎所有问题或挑战的答案都可以在其 […]

更少的偏见,更好的招聘:为什么人工智能可以改变中小企业的招聘

Less bias, better hires: why AI could transform recruitment for SMEs

无论是人为的还是数字的,没有哪个系统是完美的。但是,通过使用人工智能来完成大量的跑腿工作,中小企业可以限制无意识偏见的影响,并让员工腾出时间去寻找理想的工作候选人。人工智能是在真实智能(即人类创造的内容)上进行训练的。从理论上讲,如果你想让人工智能创作小说,你就要在小说上训练它;如果你想让人工智能编写工作规范,你就要在人写的职位描述上训练它。但这里有一个问题。无论人类如何努力保持不偏不倚,我们每个人都会存在偏见。而经过人类工作训练的人工智能将克服其中一些人类偏见。事实上,克服偏见是人工智能面临的最大挑战之一。“在招聘中,偏见无处不在,并且源自大多数由人类执行的招聘流程,”Employment

人工智能中的偏见放大了我们自己的偏见

Bias in AI amplifies our own biases

军事人工智能中的偏见

Bias in Military Artificial Intelligence

为了支持参与军事人工智能 (AI) 政策辩论的国家,本背景文件对军事人工智能中的偏见问题进行了更深入的探讨。

研究表明,人工智能聊天机器人可以检测种族,但种族偏见会降低回应同理心

Study reveals AI chatbots can detect race, but racial bias reduces response empathy

麻省理工学院、纽约大学和加州大学洛杉矶分校的研究人员开发了一种方法,帮助评估 GPT-4 等大型语言模型是否足够公平,可以在临床上用于心理健康支持。

AI 聊天机器人可以检测种族,但种族偏见会降低反应同理心

AI chatbots can detect race, but racial bias reduces response empathy

“非常不专业”:亚裔女教授在给学生打分前告诉他们评估有偏见

‘Highly unprofessional’: Female Asian professor tells students evaluations are biased before they grade her

学生向偏见小组举报伊利诺伊大学教授的“极不专业”电子邮件。

由于这种沉默偏见,诺贝尔奖忽视了黑人科学家

Nobel Prizes Overlook Black Scientists Because of This Quiet Bias

科学家们对彼此工作的认可方式忽视了黑人科学家的开创性贡献。诺贝尔委员会需要认识到,这将如何将黑人科学家排除在奖项之外

偏见报告接收移至合规办公室

Bias report intake moves to Office of Compliance

威斯康星大学麦迪逊分校合规办公室现在正在协调和管理校园内偏见报告的行政接收和记录,将报告流程从学生援助和支持办公室 (OSAS) 转移到学生事务部。

研究人员在保持或提高准确性的同时减少了人工智能模型中的偏见

Researchers reduce bias in AI models while preserving or improving accuracy

一项新技术可以识别并删除对机器学习模型失败影响最大的训练示例。

研究:一些语言奖励模型表现出政治偏见

Study: Some language reward models exhibit political bias

麻省理工学院建设性沟通中心的研究发现,即使奖励模型是在事实数据上进行训练,也会出现这种影响。

评估预训练和即时适应语言模型之间的性别偏见转移

Evaluating Gender Bias Transfer between Pre-trained and Prompt-Adapted Language Models

*平等贡献者大型语言模型 (LLM) 越来越多地被调整以实现任务特异性,以便在现实世界的决策系统中部署。之前的几项研究通过研究微调适应策略对模型公平性的影响,调查了偏见转移假设 (BTH),发现在使用微调进行调整时,预训练的屏蔽语言模型中的公平性对模型公平性的影响有限。在这项工作中,我们将 BTH 的研究扩展到提示适应下的因果模型,因为提示是一种可访问且计算效率高的方式来部署……

洛杉矶时报所有者明年可能会在网站上添加偏见测量仪

LA Times Owner May Add Bias Meter To Site Next Year

洛杉矶时报所有者可能于明年在其网站上添加偏见测量仪作者:Dmytro“Henry”Aleksandrov,来自 Headline USA,洛杉矶时报的所有者最近透露,该报将在 2025 年在其网站上添加偏见测量仪... 2018 年收购该报的生物技术亿万富翁 Patrick Soon-Shiong 在 CNN 政治评论员 Scott Jennings 的 Flyover Country 播客中表示,他一直在“幕后悄悄打造”一款人工智能测量仪,并补充说它将于 2025 年 1 月在网站上推出。“有人在阅读时会明白,文章的来源存在一定程度的偏见,”他说。 “我们需要做的是避免所谓的确认偏见,然后故