偏见关键词检索结果

密歇根大学商业专家探索支持女性领导、遏制偏见的策略

U-M business expert explores strategies for supporting women in leadership, curbing bias

担任高级管理职位的女性和少数族裔领导人往往面临更严格的审查,研究建议组织向关键利益相关者提供有关领导人的信息,以减少负面偏见。

隐性偏见如何影响您的医疗保健

How Implicit Bias Affects Your Medical Care

如何阻止隐性偏见妨碍更好的健康?这位医生想让学习如何管理偏见与学习如何缝合一样重要。

什么是隐性偏见,它会如何影响您的下一次就诊?

What is Implicit Bias, and how Might it Affect Your Next Medical Visit?

我们采访了纽约大学的医生克里斯蒂娜·冈萨雷斯 (Cristina Gonzalez),她经营着一家实验室,该实验室使用模拟来帮助医疗专业人员在检查室门口检查他们的隐性偏见。

新的医疗诊断和工具正在消除历史偏见

New Medical Diagnoses and Tools Are Removing Historical Biases

新的配方、设备和工具正在消除医学诊断中的历史偏见

有偏见的指标威胁到最需要的气候投资

Biased metrics threaten climate investment where it’s needed most

墨尔本大学的研究人员发现,目前衡量与政府贷款相关的排放的方法可能会引导私人投资者远离最需要资金的中低收入国家 (LMIC)。

研究表明,患有阅读障碍和计算障碍的人表现出较少的偏见

People with dyslexia and dyscalculia show less bias, study shows

这项新研究由我们的心理学学院领导

ChatGPT 和其他 AI 工具充满了隐藏的种族偏见

ChatGPT and other AI tools are full of hidden racial biases

在测试中,人工智能程序会建议使用非裔美国英语的人从事不太体面的工作,并对严重犯罪的人施以更严厉的惩罚。

人工智能:根除偏见和刻板印象

Artificial intelligence: rooting out bias and stereotypes

随着使用各种形式人工智能的在线工具变得越来越普遍,越来越多的人呼吁采取更多行动,确保它们不会造成或延续刻板印象和性别偏见。

《傲慢与偏见》获得新改编:交互式人工智能阿凡达

‘Pride and Prejudice’ Gets a New Adaptation: an Interactive A.I. Avatar

莉兹,以小说中的伊丽莎白·班纳特为原型的化身,将与简·奥斯汀小屋的访客进行符合当时时代的对话

种族偏见可能会玷污学术终身职位的过程——在某个特定时刻

Racial bias can taint the academic tenure process—at one particular point

新研究发现,当选民中有不太熟悉他们工作的同事时,黑人和西班牙裔教授的境况会更糟

“我爱你,我爱你”:非盟与欧盟关系中的认知偏见

"Je t'aime, moi non plus": cognitive biases in the AU-EU relationship

非盟-欧盟伙伴关系虽然对于应对跨区域挑战至关重要,但仍受到紧张局势的影响。我们认为,认知偏差在合作关系中延续误解方面发挥着重要作用。

慈善事业需要更多否定偏见(博客)

Philanthropy Needs More Disconfirmation Bias (Blog)

如果没有整合反证的机制,资助者就会错失产生更大影响的机会。

ChatGPT 中的语言偏见:语言模型强化了方言歧视

Linguistic bias in ChatGPT: Language models reinforce dialect discrimination

示例语言模型响应不同类型的英语和母语人士的反应。ChatGPT 在用英语与人交流方面表现出色。但谁的英语?只有 15% 的 ChatGPT 用户来自美国,而...

ChatGPT 中的语言偏见:语言模型强化了方言歧视

Linguistic Bias in ChatGPT: Language Models Reinforce Dialect Discrimination

示例语言模型对不同英语变体和母语人士反应的响应。ChatGPT 在用英语与人交流方面表现出色。但是谁的英语?只有 15% 的 ChatGPT 用户来自美国,而美国默认使用标准美式英语。但该模型也广泛用于人们使用其他英语变体的国家和社区。全球有超过 10 亿人使用印度英语、尼日利亚英语、爱尔兰英语和非裔美国人英语等变体。这些非“标准”变体的使用者在现实世界中经常面临歧视。他们被告知说话方式不专业或不正确,被怀疑为证人,并被拒绝住房——尽管大量研究表明所有语言变体都同样复杂和合法。歧视某人的说话方式通常是歧视其种族、民族或国籍的替代方式。如果 ChatGPT 加剧了这种歧视怎么办?为了回答这个问题

信息图:弥合性别偏见差距

Infographic: Bridging the Sex Bias Gap

研究人员挑战男性主导的领域,并提倡增加女性受试者的代表性。

XX 标记点:解决神经科学中的性别偏见

XX Marks the Spot: Addressing Sex Bias in Neuroscience

多年来,神经科学研究忽视了女性受试者,造成了严重的偏见。如今,研究人员积极地通过更具包容性和多样性的研究来重新平衡这一尺度。

“耻辱的皮纳塔”:明尼苏达大学 DEI 教授向偏见小组报告

‘Piñata of shame’: UMinn DEI professor reported to bias team

“没有人就此事联系过我,”教授说

人工智能聊天机器人反映了文化偏见。它们能成为缓解偏见的工具吗?

AI Chatbots Reflect Cultural Biases. Can They Become Tools to Alleviate Them?

ChatGPT 和其他聊天机器人能否通过训练消除其训练数据中存在的种族、阶级和性别方面的微妙偏见?