Research Roundup: AI in healthcare, gender bias in images and tiny DNA circles linked to cancer
本周的研究综述探讨了研究人员优化医疗保健中的人工智能以便医生诊断的方法、在线图像搜索中的性别偏见分析以及对癌症生长产生巨大影响并改变我们对整个理解的微小 DNA 圈。文章《研究综述:医疗保健中的人工智能、图像中的性别偏见和与癌症相关的微小 DNA 圈》首先出现在《斯坦福日报》上。
Unmasking Bias in Artificial Intelligence: Challenges and Solutions
生成式人工智能的最新进展伴随着各行各业企业应用的蓬勃发展,包括金融、医疗保健、交通运输。这项技术的发展还将带来其他新兴技术,如网络安全防御技术、量子计算进步和突破性的无线通信技术。然而,下一代技术的爆炸式增长也伴随着 […]The post The Dismasking Bias in Artificial Intelligence: Challenges and Solutions appeared first on Unite.AI.
Audio AIs are trained on data full of bias and offensive language
用于训练音频生成 AI 模型的七个主要数据集使用“男人”或“男人”字眼的可能性是使用“女人”或“女人”字眼的三倍,引发了人们对偏见的担忧
Seeing is believing – or is it? How online images fuel gender bias
一项新研究发现,视觉搜索结果反映并放大了我们的隐性偏见。
AI Knows It is Biased on Climate Change
好吧,聊天机器人知道自己有偏见,而不是所有的人工智能。但如今的头条新闻都是关于“人工智能”的,它们实际上只是指这些模仿阅读程度惊人的聊天机器人,所以我顺其自然。这些聊天机器人也什么都不知道,因为他们只是模仿人类的计算机,但说话要容易得多,就好像他们知道自己在做什么一样。
想象一下,在一个晴朗清爽的秋日早晨。你刚从附近的咖啡店出来,准备开始新的一天。眼角余光中,你瞥见灌木丛中有什么东西在动。是一只正在为过冬储藏橡子的松鼠吗?还是一只正在为迁徙增肥的知更鸟?当你到达时 […]
AI tools show biases in ranking job applicants’ names according to perceived race and gender
华盛顿大学的研究人员发现,三种最先进的大型语言模型在对简历进行排名时存在明显的种族、性别和交叉偏见。这些模型 85% 的时间偏向与白人相关的名字,只有 11% 的时间偏向与女性相关的名字,并且从未偏向与黑人男性相关的名字而不是与白人男性相关的名字。
Implicit Bias: A Zombie Theory That Needs to Die
David Randall,RealClearScience 内隐联想测试 (IAT) 的创建者 Anthony Greenwald 和 Mahzarin Banaji 与......
The Biased Media: What They Make It Their Business <i>Not</i> to See
“土耳其今晚正在轰炸和屠杀库尔德人。没有抗议,没有游行,没有媒体报道,没有联合国的谴责,也没有国际刑事法院对埃尔多安发出逮捕令。自 1914 年以来,土耳其已经杀害了 150 多万库尔德人。停止库尔德人种族灭绝。”—— Hemdad Mehristani,
The Biased Media Coverage of Harris v Trump
大多数美国人已经准备好结束选举了。政治广告、电子邮件和短信的不断轰炸让人应接不暇。媒体一直在以极其偏见的视角全天候报道特朗普和哈里斯。媒体研究中心进行了一项研究,发现晚间新闻对总统竞选的报道 […]
Stanford committees share findings on bias and opportunities for inclusivity
在校园对话中,斯坦福大学的穆斯林、阿拉伯和巴勒斯坦社区委员会和反犹太主义和反以色列偏见小组委员会分享了关于促进包容性和审查偏见的研究结果,并挑战了关于中立性的假设。
Accounting for bias in medical data helps prevent AI from amplifying racial disparity
密歇根大学的研究人员表明,黑人患者接受医生用来诊断严重疾病(如败血症)的医学检查的可能性低于白人患者。
U-M study explores how political bias in content moderation on social media feeds echo chambers
尽管公众的关注导致了企业和公共政策的变化,但算法及其创造者可能并不是社交媒体上政治两极分化的唯一驱动因素。
Perceived Political Bias of the Federal Reserve: What does public think?
在 NBER 的一篇论文中,裴匡、Michael Weber 和谢诗涵对美国人进行了调查,以了解美联储的独立性:我们对大量具有政治代表性的美国消费者样本(5,205 名参与者)进行了一项调查实验,以研究对美联储 (Fed) 政治立场的看法如何影响宏观经济预期和对美联储的信任。[…]