1 爱丁堡大学生物医学科学学院,英国爱丁堡,2 格拉斯哥大学医学、兽医学和生命科学学院感染、免疫和炎症研究所免疫生物学中心,英国格拉斯哥,3 格拉斯哥大学医学、兽医学和生命科学学院心血管和医学科学研究所,英国格拉斯哥,4 那不勒斯费德里科二世大学药学系,意大利那不勒斯,5 诺丁汉大学医学院生命科学学院,英国诺丁汉,6 剑桥大学实验医学和免疫治疗学,英国剑桥,7 Cellestia Biotech SA,瑞士巴塞尔,8 TargImmune Therapeutics AG,瑞士巴塞尔,9 耶路撒冷希伯来大学药物研究所,以色列耶路撒冷,10 Spedding Research Solutions SAS,Le V法国埃西内特
• 通过“VPN”加入 – 仅通过电话的音频,可能不会显示视频 • 通过“无 VPN”加入 – 可能会显示通过耳机或电话的音频和视频。
文化神经科学在过去十年中出现在文化心理学的交集,人类神经科学,遗传学和表观遗传学的几个子领域。在本文中,我们定义了该领域,对其经验成就进行选择性审查,并讨论其未来的方向。文化神经科学的概念 - 将人类的思想视为生物学准备和扎根,同时又是社会和文化的形状和完成。这个年轻的领域最初是为了通过新颖的脑成像方法扩大文化心理学的先前行为工作。越来越多地,该领域有望解决生物学,环境和行为之间的相互作用,如我们对(i)文化和自我,(ii)文化和基因以及(iii)多元文化认同的最新经验工作所示。该领域的未来取决于几个关键举措,包括使用大脑刺激方法,将其数据库扩展到北美和亚洲以外的其他文化以及对基因文化协调的更全面分析。总而言之,我们观察到,对培养,大脑和基因的进一步研究可能会导致一个重要的见解,即研究文化多样性同样可以肯定人类作为一种常见的生物物种的统一。
附件A:详细的奖励类别和子类别本文档提供了有关2025年ECU可持续性奖励类别和子类别的深入指南,包括资格标准,示例和指导,以帮助申请人选择正确的子类别。如果您不确定要为项目选择哪个子类别,则该附件将帮助您确定最佳拟合度。它提供了详细的解释,重新样本和关键问题,以指导您的决策过程。如果您已经明确了哪个子类别最适合您的项目,则无需阅读此附件!
本文提出了对AI可信度的正式描述,并在操作示意图中连接了内在和感知的可信度。我们认为,可信度超出了AI系统的固有功能,包括观察者的看法,例如感知到的透明度,代理基因座和人类的监督。在文献中讨论了感知到的可信度的概念,但很少有尝试将其与AI系统的内在可信度联系起来。我们的分析引入了一种新颖的示意图,以评估预期和观察到的行为之间的差异以及这些如何影响感知的不确定性和信任,以量化可信度。本文考虑了感知和内在特征,为衡量可信赖性提供了形式化。通过详细说明影响信任的因素,本研究旨在促进更具道德和广泛接受的AI技术,以确保它们符合功能和道德标准。
旅程始于 2009 年,当时西北 ISD 率先为所有高中生推出了 1:1 设备计划,资金来自 2008 年债券。该计划在下一学年扩展到初中学生。2016 年,该学区将 Chromebook 过渡为学生的主要 1:1 设备,提供可持续且可访问的平台。到 2017 年,3-12 年级的所有学生的设备比例为 1:1,而 K-2 年级的学生的设备比例为 2:1。如今,西北 ISD 支持超过 35,000 台学生设备,主要包括戴尔 Chromebook、实验室专用戴尔计算机、职业和技术教育 (CTE) 学生使用的 Windows 笔记本电脑以及其他职业准备设备。
对公平公正的人工智能的需求通常与理解人工智能本身的可能性有关,换句话说,将不透明的盒子变成尽可能可检查的玻璃盒子。然而,透明度和可解释性属于技术领域和科学哲学,因此与人工智能的伦理和认识论基本上脱节。为了解决这个问题,我们提出了一种综合方法,其前提是玻璃盒子认识论应该明确考虑如何在从设计和实施到使用和评估的整个过程的关键阶段纳入价值观和其他规范性考虑因素,例如跨部门脆弱性。为了将人工智能的伦理和认识论联系起来,我们进行了双重关注点转移。首先,我们从信任人工智能系统的输出转向信任导致结果的过程。其次,我们从专家评估转向更具包容性的评估策略,旨在促进专家和非专家的评估。这两个举措共同产生了一个可供专家和非专家在探究人工智能系统的相关认识论和伦理方面时使用的框架。我们将我们的框架称为认识论兼伦理学,以表明这两个方面同等重要。我们从设计者的角度来开发它:如何创造条件将价值观内化到人工智能系统的整个设计、实施、使用和评估过程中,在这个过程中,价值观(认识论和非认识论)在每个阶段都得到明确考虑,并可供每个参与其中的重要参与者随时检查。1.认识论还是伦理学?当前人工智能(AI)认识论和伦理学的争论集中在两个基本上不相干的问题上:[1.] 人工智能的透明度和不透明性问题,即人工智能是一个玻璃或不透明的盒子[人工智能认识论];[2.] 关于让人工智能符合伦理道德的问题,确保算法尽可能公平和不偏不倚[人工智能伦理学]。我们说“基本上”不相干,因为存在将这两个问题联系起来的尝试,但与我们进入辩论的切入点有很大不同。例如,Colaner (2022) 讨论了可解释人工智能(以下简称“XAI”)是否具有内在(伦理)价值的问题,并提供了各种论据来给出肯定的答案。该领域的默认立场仍然是将伦理学与认识论分开。在本文中,我们建立了这两个问题的直接联系。在建立伦理学与认识论之间的联系时,我们展示了讨论的两个维度是如何相交的。我们称其中一个轴为“认识论—伦理学”