mastvei tshishyn是比利时的Libre de Bruxelles大学计算生物学和生物信息学集团的博士候选人。他的研究重点是研究蛋白质变异的研究以及预测突变对蛋白质不同生物物理特征的影响的方法。Fabrizio Pucci是比利时的Libre de Bruxelles大学计算生物学和生物信息学集团的助理教授。他的主要研究领域包括蛋白质和RNA设计,遗传变异解释,基于AI的方法开发和免疫信息学。Marianne Rooman是科学研究基金的荣誉研究主任,也是比利时的Libre de Bruxelles大学计算生物学和生物信息学集团的教授。她在多个研究领域具有专业知识,包括结构性生物信息学,量子化学和机器学习技术在生物分子系统中的应用以及数学生物建模。收到:2023年6月30日。修订:2023年10月2日。接受:2023年12月5日©作者2024。牛津大学出版社出版。这是根据Creative Commons Attribution许可条款(https://creativecommons.org/licenses/4.0/)分发的一篇开放访问文章,该文章允许在任何媒介中不受限制地重复使用,分发和再现,前提是适当地引用了原始工作。
摘要本研究提供了对投资者行为及其与尼泊尔金融市场投资决策背景下的各种行为偏见的关键见解。使用结构化问卷从260个单独的投资者收集数据,并应用了层次回归分析来检验假设。该研究确定了影响投资决策的重大偏见,包括锚定偏见,过度自信和放牧。此外,还研究了金融素养作为调节因素的作用,揭示了其对减少这些偏见影响的重要影响。调查结果强调了尼泊尔新兴市场中独特的投资模式,与发达金融市场的既定规范形成鲜明对比。这些结果对于政策制定者,监管机构和股票市场当局来说是有价值的,可以解决投资者行为,增强金融教育并促进知情决策。关键字:投资者行为,行为偏见,金融素养,尼泊尔。
摘要本文探讨了AI驱动的教育技术中偏见的普遍性,研究了其来源,表现和对多样化学生人群的影响。它提出了一个识别和减轻偏见的框架,强调了对透明和包容的教育技术的需求。教育中AI的全球市场价值预计将在2022年至2030年之间增加45%的复合年增长率(复合年增长率) - 强调了这一不断发展的行业的巨大潜力。作为一个负责任的社会,我们必须确保在敏感领域(如教育)中对人工智能的道德复制,在这种敏感领域中,潜力是无限的,但是风险同样有效。本文旨在将AI的基础设定为辅助技术,而不是替代传统教学。这项研究强调了在课程设计或教学法计划中使用深度学习和自然语言处理,不仅关注批判性思维,而不仅仅是静态学习。虽然其他最近的作品仅审查了一种用例,但我们将Edtech工具分为三种学习途径:支持学生支持,支持教师和系统支持。通过理论和经验分析,我们系统地分解了两种技术辅助分级技术和聊天机器人个性化学习,因此探索了对利益相关者的所有影响:学生,老师和教育社区。此外,我们强调需要一个安全的监管框架,就像当前存在的框架一样,以确保不会滥用收集的数据。围绕信息的脆弱性和数据挖掘的进一步复制的法律应该是严格的,对违反同样的法律造成了适当的法律后果。关键字:人工智能,偏见,教育,辅助分级,数据偏见,算法偏见,偏见缓解,机器
人们认识到人工智能 (AI) 具有减少医疗保健差距和不公平现象的潜力,但如果不以公平的方式实施,它也会加剧这些问题。这种观点确定了人工智能生命周期每个阶段的潜在偏见,包括数据收集、注释、机器学习模型开发、评估、部署、操作化、监控和反馈集成。为了减轻这些偏见,我们建议让一群不同的利益相关者参与进来,采用以人为本的人工智能原则。以人为本的人工智能有助于确保人工智能系统的设计和使用方式有利于患者和社会,从而减少健康差距和不公平现象。通过识别和解决人工智能生命周期每个阶段的偏见,人工智能可以在医疗保健领域发挥其潜力。
多项研究旨在弥合人工智能 (AI) 与人类决策者在人工智能辅助决策中的差距,其中人类是人工智能模型预测的消费者,也是高风险应用中的最终决策者。然而,人们的感知和理解常常被他们的认知偏见所扭曲,例如确认偏见、锚定偏见、可用性偏见等等。在这项工作中,我们使用认知科学领域的知识来解释人机协作决策环境中的认知偏见,并减轻它们对协作绩效的负面影响。为此,我们用数学方法模拟认知偏见,并提供一个通用框架,研究人员和从业者可以通过该框架了解认知偏见与人机准确性之间的相互作用。然后,我们特别关注锚定偏见,这是人机协作中常见的偏见。我们实施了基于时间的脱锚策略,并进行了我们的第一次用户实验,以验证其在人机协作决策中的有效性。基于此结果,我们设计了一种资源受限环境下的时间分配策略,该策略在某些假设下可实现最佳人机协作。然后,我们进行了第二次用户实验,结果表明,当 AI 模型的置信度较低且不正确时,我们的带解释的时间分配策略可以有效地解除人类的束缚并提高协作绩效。
全球卫生危机为人工智能 (AI) 解决方案的开发带来了前所未有的机遇。本文旨在通过实施以人为本的 AI 来帮助组织中的决策者,从而解决人工智能中的部分偏见。它依赖于两个设计科学研究 (DSR) 项目的结果:SCHOPPER 和 VRAILEXIA。这两个设计项目通过两个互补的阶段将以人为本的 AI 方法付诸实践:1) 第一个阶段安装了以人为本的知情设计流程,2) 第二个阶段实现了聚合 AI 和人类的使用架构。所提出的框架具有许多优势,例如允许将人类知识整合到 AI 的设计和训练中,为人类提供对其预测的可理解解释,并推动增强智能的出现,可以将算法转变为对人类决策错误的强大平衡,将人类转变为对 AI 偏见的平衡。
大型语言模型 (LLM) 已显示出作为评估 AI 系统生成的答案质量的自动评估器的前景。然而,基于 LLM 的评估器在用于评估成对比较中的候选答案时表现出位置偏差或不一致性,无论内容如何,都会偏向第一个或第二个答案。为了解决这个限制,我们提出了 P ORTIA,这是一个基于对齐的系统,旨在模仿人类的比较策略,以轻量级但有效的方式校准位置偏差。具体来说,P ORTIA 将答案分成多个部分,同时考虑长度和语义,然后将它们合并回单个提示以供 LLM 评估。对 6 个 LLM 对 11,520 个答案对进行的大量实验表明,P ORTIA 显着提高了所有模型和比较形式的一致性率,平均相对提高 47.46%。它还使 P ORTIA 增强型 GPT-3.5 能够实现与 GPT-4 相当的与人类的一致率,并将 GPT-4 的一致率提高到 98%。后续的人工评估表明,P ORTIA 增强型 GPT-3.5 模型在与人类评估者的一致性方面甚至可以超越独立的 GPT-4,凸显了 P ORTIA 纠正立场偏见、提高 LLM 一致性和提高性能的同时保持成本效率的能力。
Sherbrooke大学是一家讲法语的机构,以其人类维度,创新的操作风格和与专业人士的合作而闻名。Sherbrooke大学欢迎来自全球102个国家和地区的31,700多名学生。该系由24位积极参与以下研究领域的教授组成:人工智能,生物信息学,健康信息学,人类计算机互动,成像和数字媒体科学等。NLP实验室专注于理解和生成与社会问题有关的各种学科中的文本。其工作包括对可恶内容的识别和缓解,对假新闻的检测,对社交网络表达的立场的分析以及基于神经体系结构的NLP模型中的偏见的解释性和降低。
技术对我们来说已经越来越重要,要么我们将其用于支持或增强我们的活动,要么直接将任务委派给这些盛开的工具,这些工具从更加机械世界到一个数字世界中找到了他们从更加机械世界到一个数字世界的道路,我们在某种程度上比其他人更重要的是,我们的技术变得更加重要,而这是一个重要的技术,而这是一个重要的事情,而这是一个重要的事情。这些工具不是完美无缺的,不应盲目信任,对于过去两年中蓬勃发展的AI系统,这也没有什么不同,我们将其委派给我们的某些工作或任务以节省时间或金钱,从这些系统中节省时间或金钱,这些系统是从最近两年中出现的最大的AI工具之一,是图像基因性AI,其中最大的例子是Dall-e的最大示例。