偏见关键词检索结果

一年前的作品:《傲慢与偏见》中为何没有绅士大屠杀农民的扎克雷?

HOISTED FROM A YEAR AGO: Why Is There No Gentry-Massacring Peasant Jacquerie in "Pride & Prejudice"?

2024-01-08:人们会认为《傲慢与偏见》中的班纳特先生、达西先生和莉齐·班纳特的处境会像半代之前的法国同行一样结束——他们……

“垃圾科学”:社会科学家对声称教师晋升存在偏见的研究提出异议

‘Junk science’: Social scientist disputes study claiming bias in faculty promotions

结果实际上表明,白人和亚裔教授可能处于不利地位。

挑战性别刻板印象:男性在财务决策中比女性更容易产生情绪偏见

Challenging Gender Stereotypes: Men More Prone to Emotional Bias in Financial Decisions Than Women

情绪新闻对男性的影响更大,影响他们的财务决策。埃塞克斯大学的新研究表明,情绪新闻报道显著影响男性的财务决策。研究发现,男性比女性更容易让一种情况的情绪影响他们在无关的、有风险的财务决策中的选择。在观看了现实生活中的 [...]

发现维基百科多语言内容中隐藏的偏见

Finding hidden biases in Wikipedia's multilingual content

新工具可分析和解决不同语言版本之间的文化差异,为更平衡的信息铺平道路

人工智能容易产生“我们与他们”的偏见

AI is prone to ‘us vs. them’ bias

“随着人工智能越来越融入我们的日常生活,理解和解决这些偏见至关重要……”

印第安纳大学校长向自己的偏见团队报告

Indiana University president reported to her own bias team

校长 Pamela Whitten 面临两项偏见投诉。与此同时,该大学的偏见团队面临法律挑战。

被 BAMMed 了吗?如何减轻 L&D 中的偏见?

Got BAMMed? How To Mitigate Bias In L&D?

本文讨论了如何减轻 L&D 中的偏见,使用首字母缩略词 BAMM 来识别它们:偏见、假设、神话和误解。本文首次发表于 eLearning Industry。

生物学不是偏见

Biology Is Not Bigotry

Jerry Coyne,《为什么进化是真实的》 这就是故事。我不仅是“自由”组织的成员和支持者......

我知道我有偏见,但我认为这是教师最好的资源

I Know I’m Biased, But Here’s What I Think Is The Best Resource Anywhere For Teachers

我知道我有偏见,因为过去十三年来,我一直在《教育周刊》上撰写课堂问答博客,但老实说,我想不出比这更好的教师资源了。教师在课堂上遇到的几乎所有问题或挑战的答案都可以在其 […]

更少的偏见,更好的招聘:为什么人工智能可以改变中小企业的招聘

Less bias, better hires: why AI could transform recruitment for SMEs

无论是人为的还是数字的,没有哪个系统是完美的。但是,通过使用人工智能来完成大量的跑腿工作,中小企业可以限制无意识偏见的影响,并让员工腾出时间去寻找理想的工作候选人。人工智能是在真实智能(即人类创造的内容)上进行训练的。从理论上讲,如果你想让人工智能创作小说,你就要在小说上训练它;如果你想让人工智能编写工作规范,你就要在人写的职位描述上训练它。但这里有一个问题。无论人类如何努力保持不偏不倚,我们每个人都会存在偏见。而经过人类工作训练的人工智能将克服其中一些人类偏见。事实上,克服偏见是人工智能面临的最大挑战之一。“在招聘中,偏见无处不在,并且源自大多数由人类执行的招聘流程,”Employment

人工智能中的偏见放大了我们自己的偏见

Bias in AI amplifies our own biases

军事人工智能中的偏见

Bias in Military Artificial Intelligence

为了支持参与军事人工智能 (AI) 政策辩论的国家,本背景文件对军事人工智能中的偏见问题进行了更深入的探讨。

研究表明,人工智能聊天机器人可以检测种族,但种族偏见会降低回应同理心

Study reveals AI chatbots can detect race, but racial bias reduces response empathy

麻省理工学院、纽约大学和加州大学洛杉矶分校的研究人员开发了一种方法,帮助评估 GPT-4 等大型语言模型是否足够公平,可以在临床上用于心理健康支持。

AI 聊天机器人可以检测种族,但种族偏见会降低反应同理心

AI chatbots can detect race, but racial bias reduces response empathy

“非常不专业”:亚裔女教授在给学生打分前告诉他们评估有偏见

‘Highly unprofessional’: Female Asian professor tells students evaluations are biased before they grade her

学生向偏见小组举报伊利诺伊大学教授的“极不专业”电子邮件。

由于这种沉默偏见,诺贝尔奖忽视了黑人科学家

Nobel Prizes Overlook Black Scientists Because of This Quiet Bias

科学家们对彼此工作的认可方式忽视了黑人科学家的开创性贡献。诺贝尔委员会需要认识到,这将如何将黑人科学家排除在奖项之外

偏见报告接收移至合规办公室

Bias report intake moves to Office of Compliance

威斯康星大学麦迪逊分校合规办公室现在正在协调和管理校园内偏见报告的行政接收和记录,将报告流程从学生援助和支持办公室 (OSAS) 转移到学生事务部。

研究人员在保持或提高准确性的同时减少了人工智能模型中的偏见

Researchers reduce bias in AI models while preserving or improving accuracy

一项新技术可以识别并删除对机器学习模型失败影响最大的训练示例。