The Forgotten Layers: How Hidden AI Biases Are Lurking in Dataset Annotation Practices
AI 系统依赖于大量精心策划的数据集进行训练和优化。AI 模型的有效性与其训练数据的质量、代表性和完整性密切相关。然而,有一个经常被低估的因素对 AI 结果有深远的影响:数据集注释。如果注释实践不一致或有偏见,则可能会注入 […] 文章《被遗忘的层次:隐藏的 AI 偏见如何潜伏在数据集注释实践中》首先出现在 Unite.AI 上。
Bias + Inaccuracy Key Concerns With Legal AI Tools: Survey
Linklaters、She Breaks the Law 和 Next 100 Years 发布了一项关于法律界女性如何使用法律的详细调查结果......
GAO 发现的内容美国国土安全部 (DHS) 执法机构报告称,在 2023 财年使用了 20 多种检测、观察和监控技术。这包括机构拥有或租赁的技术,以及机构通过第三方(如商业供应商和其他执法机构)访问的技术。例如,所有三个选定的 DHS 执法机构都报告称,他们已达成协议,可以查询或查看来自第三方自动车牌阅读器的信息,从而使执法人员可以访问全国范围的车牌数据源。选定的 DHS 机构还报告称,他们使用了各种分析软件,包括一些基于人工智能 (AI) 的软件,这些软件可以增强其检测、观察和监控技术的能力。图:检测、观察和监控技术的示例DHS 正在制定政策和程序来解决使用人工智能的技术带来的偏见风险,但
Diversity Forum keynote speaker: Be intentional about avoiding bias
超过 650 人参加了论坛,主题为“归属感:驾驭差异和建立社区”。活动的视频流观看次数超过 12,000 次。
医疗保健预测风险模型中的算法偏差可能会加剧现有的健康不平等。我们的研究探讨了使用领先的偏差缓解方法提高公平性的方法,旨在为研究人员提供如何测试和提高算法公平性的指导。
Some Thoughts on Psychology of Heuristics and Biases
我将撰写一系列关于卡尼曼、特维斯基及其众多追随者的文章。这些文章将基于有总比没有好这一原则。维基百科上经常会出现“需要引用”的字样,我将引用为“我依稀记得在某处读过”。此外,反向的时间顺序会产生问题 […] 文章《关于启发式和偏见心理学的一些想法》首先出现在 Angry Bear 上。
Inside the University’s new bias-reporting system
本季度初推出的新 Title VI 报告流程取代了用于报告偏见相关事件的“受保护身份伤害”流程。该政策旨在支持学生,而不会超越言论自由的界限。文章《大学新偏见报告系统内部》首先出现在《斯坦福日报》上。
In the ‘Wild West’ of AI chatbots, subtle biases related to race and caste often go unchecked
LinkedIn 的招聘助理引发了对 AI 招聘工具偏见的担忧。研究人员发现许多模型会产生有害内容,尤其是有关种姓的内容。文章“在 AI 聊天机器人的“狂野西部”,与种族和种姓有关的微妙偏见往往得不到控制”首次出现在《科学探究者》上。
In the ‘Wild West’ of AI chatbots, subtle biases related to race and caste often go unchecked
华盛顿大学的研究人员开发了一种检测人工智能模型中细微偏见的系统。他们发现,在围绕种族和种姓的对话中测试的八个流行人工智能模型中有七个在互动中产生了大量有偏见的文本——尤其是在讨论种姓时。开源模型的表现远不如两个专有的 ChatGPT 模型。
News Wrap: FEMA administrator pushes for investigation into political bias at agency
在我们周二的新闻报道中,联邦紧急事务管理局局长表示,她正在推动对其机构救援工作中的政治偏见进行调查,跨性别厕所辩论进入了美国国会大厦,共和党议员试图禁止民主党人萨拉·麦克布莱德使用女厕所,一位美国高级外交官表示,以色列和真主党之间的停战“触手可及”。
AIs show a CV racial bias and absolutely no one is surprised
尽管人工智能承诺会减少种族偏见,但这些模型似乎只会延续种族偏见。
Research Roundup: AI in healthcare, gender bias in images and tiny DNA circles linked to cancer
本周的研究综述探讨了研究人员优化医疗保健中的人工智能以便医生诊断的方法、在线图像搜索中的性别偏见分析以及对癌症生长产生巨大影响并改变我们对整个理解的微小 DNA 圈。文章《研究综述:医疗保健中的人工智能、图像中的性别偏见和与癌症相关的微小 DNA 圈》首先出现在《斯坦福日报》上。
Unmasking Bias in Artificial Intelligence: Challenges and Solutions
生成式人工智能的最新进展伴随着各行各业企业应用的蓬勃发展,包括金融、医疗保健、交通运输。这项技术的发展还将带来其他新兴技术,如网络安全防御技术、量子计算进步和突破性的无线通信技术。然而,下一代技术的爆炸式增长也伴随着 […]The post The Dismasking Bias in Artificial Intelligence: Challenges and Solutions appeared first on Unite.AI.
Audio AIs are trained on data full of bias and offensive language
用于训练音频生成 AI 模型的七个主要数据集使用“男人”或“男人”字眼的可能性是使用“女人”或“女人”字眼的三倍,引发了人们对偏见的担忧