多项研究旨在弥合人工智能 (AI) 与人类决策者在人工智能辅助决策中的差距,其中人类是人工智能模型预测的消费者,也是高风险应用中的最终决策者。然而,人们的感知和理解常常被他们的认知偏见所扭曲,例如确认偏见、锚定偏见、可用性偏见等等。在这项工作中,我们使用认知科学领域的知识来解释人机协作决策环境中的认知偏见,并减轻它们对协作绩效的负面影响。为此,我们用数学方法模拟认知偏见,并提供一个通用框架,研究人员和从业者可以通过该框架了解认知偏见与人机准确性之间的相互作用。然后,我们特别关注锚定偏见,这是人机协作中常见的偏见。我们实施了基于时间的脱锚策略,并进行了我们的第一次用户实验,以验证其在人机协作决策中的有效性。基于此结果,我们设计了一种资源受限环境下的时间分配策略,该策略在某些假设下可实现最佳人机协作。然后,我们进行了第二次用户实验,结果表明,当 AI 模型的置信度较低且不正确时,我们的带解释的时间分配策略可以有效地解除人类的束缚并提高协作绩效。
o 例如,如果使用人工智能图像生成器来开发 CEO 的图像,则应考虑除了人工智能生成器之外,是否还有其他更可靠、更具代表性和更全面的图像来源。• 使用人工智能生成的文本和图像会对现实世界产生影响。公共论坛和文档中发布的图像和文本将来可能会被人工智能生成器使用,从而不断循环利用信息和偏见。• 个人在创建和使用使用人工智能生成的文本或图像时,应进行认真的道德和技术考虑。至少,应引用图像和/或文本并将其标识为机器生成的,并注明所使用的平台、日期和提示。考虑生成器是否适合某项任务不仅要考虑输入/输出,还要考虑输出本身的长期使用。人工智能图像和文本生成器中的偏见:
要使人工智能符合道德规范并公平公正,仅使用无偏见的数据是不够的。算法的设计也应使其能够持续动态地检查是否存在偏见。如果审核失败,应消除发现的任何偏见,并在部署算法之前对其进行修复
“我的研究发现,IBM、微软和亚马逊等科技巨头销售的人工智能系统存在巨大的性别和种族偏见。在猜测面部性别的任务中,所有公司在男性面部上的表现都远远好于女性面部。我评估的公司对浅肤色男性的错误率不超过 1%。对于深色皮肤的女性,错误率飙升至 35%。”
大型语言模型 (LLM) 已显示出作为评估 AI 系统生成的答案质量的自动评估器的前景。然而,基于 LLM 的评估器在用于评估成对比较中的候选答案时表现出位置偏差或不一致性,无论内容如何,都会偏向第一个或第二个答案。为了解决这个限制,我们提出了 P ORTIA,这是一个基于对齐的系统,旨在模仿人类的比较策略,以轻量级但有效的方式校准位置偏差。具体来说,P ORTIA 将答案分成多个部分,同时考虑长度和语义,然后将它们合并回单个提示以供 LLM 评估。对 6 个 LLM 对 11,520 个答案对进行的大量实验表明,P ORTIA 显着提高了所有模型和比较形式的一致性率,平均相对提高 47.46%。它还使 P ORTIA 增强型 GPT-3.5 能够实现与 GPT-4 相当的与人类的一致率,并将 GPT-4 的一致率提高到 98%。后续的人工评估表明,P ORTIA 增强型 GPT-3.5 模型在与人类评估者的一致性方面甚至可以超越独立的 GPT-4,凸显了 P ORTIA 纠正立场偏见、提高 LLM 一致性和提高性能的同时保持成本效率的能力。
近年来,人工智能 (AI) 与医疗保健的融合被誉为革命性力量,尤其是在癌症检测领域。头条新闻宣称 AI 系统在识别肿瘤方面的表现优于人类放射科医生,并预示着未来癌症诊断将更快、更准确、更普遍。然而,当我们站在这场由 AI 驱动的医疗革命的风口浪尖时,至关重要的是要看清炒作背后的真相,并解决一个重大挑战:AI 驱动的癌症检测系统中的偏见。AI 技术越来越多地用于从乳房 X 光检查、CT 扫描图像或活检图像中识别早期癌症。深度学习算法的应用范围正在不断扩大,新方法在癌症筛查、诊断、风险预测、预后、治疗策略、反应评估和随访方面表现出了卓越的能力 [1]。这些进步为早期发现癌症、改善治疗决策和计划以及降低发病率和死亡率带来了希望。
随着个人和社区在日益虚拟的环境中互动,他们往往容易受到数字足迹商品化的影响。在这种环境中,模糊的概念和行为被捕获、量化,并用于对人们的生活进行分类、排序、推荐或做出决定。虽然许多组织都试图以负责任的方式利用这些信息,但偏见在技术过程中仍然存在,无论意图如何,都可能导致有害影响。这些有害结果,即使是无意的,也为培养公众对人工智能 (AI) 的信任带来了重大挑战。虽然有很多方法可以确保我们每天使用的技术是安全可靠的,但有些特定于人工智能的因素需要新的视角。人工智能系统通常被置于它们能够产生最大影响的环境中。这种影响是有益的还是有害的,是值得信赖和负责任的人工智能领域的一个基本问题。人工智能带来的有害影响不仅在个人或企业层面,而且能够波及更广泛的社会。人工智能应用或通过跨领域和跨行业的大型机器学习模型的扩展造成的破坏的规模和速度需要共同努力。
摘要近年来,使用肠降血糖素类似物的使用已成为一种有效的方法,可以实现2型糖尿病(T2D)患者的胰岛素分泌和体重减轻。结合和刺激多个受体的激动剂表现出了特殊的希望。然而,包括恶心和腹泻在内的关闭目标效应仍然是使用这些药物的并发症,并且越来越多地寻求具有优化的药理学特征和/或偏置信号传导的修改版本。在这里,我们描述了与胰甘氨酸样肽-1(GLP-1)和葡萄糖依赖性胰岛素多肽(GIP)受体(GLP-1R和GIPR)结合的分子的合成和特性。HISHS-2001显示GLP-1R的亲和力增加,并且倾向于减少该受体与FDA批准的双GLP-1R/GIPR激动剂Tirzepatide的内在化和回收利用。HISHS-2001还显示出对cAMP的产生与β-arrestin 2募集的偏见明显更大。相比之下,在GLP-1R处,GαS募集较低,而GIPR则较高。对肥胖的高血糖DB/db小鼠的施用,Hishs-2001增加了循环胰岛素的增加,同时降低了体重和HBA1C,其功效与Tirzepatide的疗效相似,剂量较低。因此,HISHS-2001代表具有改进药理特征的新型双受体激动剂。
8。Authors............................................................................................................................................12
A:社会偏见。统计偏见只有清楚这些偏见如何在社会偏见中表现出来。2。将如何确定偏见?是否有任何特定的指标,工具或数据集将用于定义和衡量偏见?a:由表演者定义这些内容3。对模型的大小或类型是否有任何约束(例如,诸如GPT或较小域特异性模型(如Llama-7b)等大型模型)?A:无约束4。我们是否允许将多种技术(例如模块化附加组件和概念空间分析)组合到混合方法中?A:是5。提议的解决方案是否应该完全新颖,还是可以接受现有方法的适应?a:优选创新的解决方案。如果提出的解决方案是增量的,则必须对解决方案的影响做出强有力的理由6。是否偏爱可以在多个域上推广的方法或用于单个域的高度专业化?A:没有偏好