偏见关键词检索结果

被遗忘的层次:隐藏的 AI 偏见如何潜伏在数据集注释实践中

The Forgotten Layers: How Hidden AI Biases Are Lurking in Dataset Annotation Practices

AI 系统依赖于大量精心策划的数据集进行训练和优化。AI 模型的有效性与其训练数据的质量、代表性和完整性密切相关。然而,有一个经常被低估的因素对 AI 结果有深远的影响:数据集注释。如果注释实践不一致或有偏见,则可能会注入 […] 文章《被遗忘的层次:隐藏的 AI 偏见如何潜伏在数据集注释实践中》首先出现在 Unite.AI 上。

CSU 的新政策针对警方对偏见、微侵犯、恐吓、敌对言论的投诉

New CSU policy to police complaints of bias, microaggressions, intimidation, hostile words

“我非常担心……这项政策会投下超大网。”

调查显示法律 AI 工具存在偏见和不准确性是主要问题

Bias + Inaccuracy Key Concerns With Legal AI Tools: Survey

Linklaters、She Breaks the Law 和 Next 100 Years 发布了一项关于法律界女性如何使用法律的详细调查结果......

执法:国土安全部可以更好地解决偏见风险并加强对公共使用技术的隐私保护

Law Enforcement: DHS Could Better Address Bias Risk and Enhance Privacy Protections for Technologies Used in Public

GAO 发现的内容美国国土安全部 (DHS) 执法机构报告称,在 2023 财年使用了 20 多种检测、观察和监控技术。这包括机构拥有或租赁的技术,以及机构通过第三方(如商业供应商和其他执法机构)访问的技术。例如,所有三个选定的 DHS 执法机构都报告称,他们已达成协议,可以查询或查看来自第三方自动车牌阅读器的信息,从而使执法人员可以访问全国范围的车牌数据源。选定的 DHS 机构还报告称,他们使用了各种分析软件,包括一些基于人工智能 (AI) 的软件,这些软件可以增强其检测、观察和监控技术的能力。图:检测、观察和监控技术的示例DHS 正在制定政策和程序来解决使用人工智能的技术带来的偏见风险,但

多元化论坛主旨发言人:有意避免偏见

Diversity Forum keynote speaker: Be intentional about avoiding bias

超过 650 人参加了论坛,主题为“归属感:驾驭差异和建立社区”。活动的视频流观看次数超过 12,000 次。

减轻偏见以提高使用医疗数据进行预测风险建模的公平性:对长期 COVID 风险的分析

Mitigating Bias to Improve Fairness in Predictive Risk Modeling Using Healthcare Data: An Analysis of Long COVID Risk

医疗保健预测风险模型中的算法偏差可能会加剧现有的健康不平等。我们的研究探讨了使用领先的偏差缓解方法提高公平性的方法,旨在为研究人员提供如何测试和提高算法公平性的指导。

关于启发式和偏见心理学的一些想法

Some Thoughts on Psychology of Heuristics and Biases

我将撰写一系列关于卡尼曼、特维斯基及其众多追随者的文章。这些文章将基于有总比没有好这一原则。维基百科上经常会出现“需要引用”的字样,我将引用为“我依稀记得在某处读过”。此外,反向的时间顺序会产生问题 […] 文章《关于启发式和偏见心理学的一些想法》首先出现在 Angry Bear 上。

大学新偏见报告系统内部

Inside the University’s new bias-reporting system

本季度初推出的新 Title VI 报告流程取代了用于报告偏见相关事件的“受保护身份伤害”流程。该政策旨在支持学生,而不会超越言论自由的界限。文章《大学新偏见报告系统内部》首先出现在《斯坦福日报》上。

在人工智能聊天机器人的“狂野西部”,与种族和种姓有关的微妙偏见往往得不到控制

In the ‘Wild West’ of AI chatbots, subtle biases related to race and caste often go unchecked

LinkedIn 的招聘助理引发了对 AI 招聘工具偏见的担忧。研究人员发现许多模型会产生有害内容,尤其是有关种姓的内容。文章“在 AI 聊天机器人的“狂野西部”,与种族和种姓有关的微妙偏见往往得不到控制”首次出现在《科学探究者》上。

在人工智能聊天机器人的“狂野西部”,与种族和种姓有关的微妙偏见往往得不到控制

In the ‘Wild West’ of AI chatbots, subtle biases related to race and caste often go unchecked

华盛顿大学的研究人员开发了一种检测人工智能模型中细微偏见的系统。他们发现,在围绕种族和种姓的对话中测试的八个流行人工智能模型中有七个在互动中产生了大量有偏见的文本——尤其是在讨论种姓时。开源模型的表现远不如两个专有的 ChatGPT 模型。

你的学校的着装规定有偏见吗?

Is Your School’s Dress Code Biased?

某些性别、种族、文化或体型的学生是否比其他学生更容易受到斥责?

NFT 市场偏见:研究显示女性和黑人头像售价较低

NFT Marketplace Bias: Study Reveals Female and Black Avatars Sell for Less

新闻摘要:联邦紧急事务管理局局长推动调查该机构的政治偏见

News Wrap: FEMA administrator pushes for investigation into political bias at agency

在我们周二的新闻报道中,联邦紧急事务管理局局长表示,她正在推动对其机构救援工作中的政治偏见进行调查,跨性别厕所辩论进入了美国国会大厦,共和党议员试图禁止民主党人萨拉·麦克布莱德使用女厕所,一位美国高级外交官表示,以色列和真主党之间的停战“触手可及”。

学术界的政治偏见

Political Bias in Academia

是的,大学教授中民主党人与共和党人的比例是 10:1。

人工智能表现出 CV 种族偏见,绝对没有人感到惊讶

AIs show a CV racial bias and absolutely no one is surprised

尽管人工智能承诺会减少种族偏见,但这些模型似乎只会延续种族偏见。

研究综述:医疗保健中的人工智能、图像中的性别偏见和与癌症相关的微小 DNA 圈

Research Roundup: AI in healthcare, gender bias in images and tiny DNA circles linked to cancer

本周的研究综述探讨了研究人员优化医疗保健中的人工智能以便医生诊断的方法、在线图像搜索中的性别偏见分析以及对癌症生长产生巨大影响并改变我们对整个理解的微小 DNA 圈。文章《研究综述:医疗保健中的人工智能、图像中的性别偏见和与癌症相关的微小 DNA 圈》首先出现在《斯坦福日报》上。

揭露人工智能中的偏见:挑战和解决方案

Unmasking Bias in Artificial Intelligence: Challenges and Solutions

生成式人工智能的最新进展伴随着各行各业企业应用的蓬勃发展,包括金融、医疗保健、交通运输。这项技术的发展还将带来其他新兴技术,如网络安全防御技术、量子计算进步和突破性的无线通信技术。然而,下一代技术的爆炸式增长也伴随着 […]The post The Dismasking Bias in Artificial Intelligence: Challenges and Solutions appeared first on Unite.AI.

音频 AI 接受充满偏见和攻击性语言的数据训练

Audio AIs are trained on data full of bias and offensive language

用于训练音频生成 AI 模型的七个主要数据集使用“男人”或“男人”字眼的可能性是使用“女人”或“女人”字眼的三倍,引发了人们对偏见的担忧