随着人工智能逐渐融入我们生活的方方面面并对社会产生深远影响,培养年轻学习者对人工智能技术的素养变得越来越重要。我们开发了知识网络和生物特征两个活动盒,供家庭成员在家中参与,以传达人工智能素养能力,例如理解知识表示、机器学习的步骤和人工智能伦理。我们目前的工作是探索如何将这些活动盒转变为针对中学学习者的博物馆展品,重点考虑三个关键因素:以学习者兴趣为中心、产生对个人有意义的输出以及在更大规模上融入体现和协作。我们的演示将展示现有的知识网络和生物特征活动盒以及将这些活动改编成更大规模博物馆展品的早期原型。本文探索了如何为各种非正式学习环境设计人工智能素养学习干预措施。
远程机器人技术旨在将人类的操作技能和灵巧性在任意距离和任意规模上转移到远程工作场所。透明的远程机器人系统可以实现自然而直观的交互。我们假设机器人系统的具身化(包括三个子组件:所有权、代理和自我定位)可实现最佳的感知透明度并提高任务性能。但是,这尚未得到直接研究。我们根据四个前提进行推理,并从文献中提出支持每个前提的发现:(1)大脑可以具身化非身体物体(例如,机器人手),(2)具身化可以通过介导的感觉运动交互来引发,(3)具身化对机器人系统和操作员身体之间的不一致具有鲁棒性,以及(4)具身化与灵巧的任务性能呈正相关。我们使用预测编码理论作为框架来解释和讨论文献中报告的结果。先前的大量研究表明,通过介导的感觉运动交互,可以在各种虚拟和真实的体外物体(包括假肢、化身和机器人)上诱导化身。此外,非人类形态也可以实现化身,包括细长的手臂和尾巴。根据预测编码理论,没有任何一种感觉方式对于建立所有权至关重要,多感官信号的差异不一定会导致化身的丧失。然而,多感官同步或视觉相似性方面的巨大差异可能会阻碍化身的发生。文献对化身和(灵巧的)任务表现之间的联系提供了较少的广泛支持。然而,用假手收集的数据确实表明了正相关性。我们得出结论,所有四个前提都得到了文献中的直接或间接证据的支持,这表明远程操纵器的化身可能会提高遥控机器人的灵巧表现。这值得进一步对遥控机器人中的化身进行实施测试。我们制定了第一套在远程机器人技术中应用具体化的指导方针,并确定了一些重要的研究课题。
该用例结构性报告是通过与东南亚国家(东盟)成员国和日本的各种专家进行多次讨论来开发的,以具体化目标用例。专家包括来自行业协会和私营部门的高级管理人员。我们还进行了深入的台式研究,全球最佳实践基准以及对数据共享平台的本地和全球专家的多次访谈。通过这些讨论和访谈,我们能够更好地了解数据共享中的当地痛点和挑战,对我们的数据共享计划产生影响,并建立对我们用例的关键组成部分的共识。通过反思东亚和东亚地区的独特环境和状况,我们同意了针对用例设计和实施中当地痛点和挑战的需求。
机器人是具有具体行为能力的智能体,会在多种不确定性因素下行动。在协助人类完成协作任务时,机器人需要传达它们的不确定性以帮助做出决策。在本研究中,我们研究了在高风险辅助决策任务中可视化机器人不确定性的使用情况。具体来说,我们探讨了机器人传达的不同不确定性可视化形式(图形显示与机器人的具体行为)和置信度水平(低、高、100%)如何影响人类在协作任务中的决策和感知。结果表明,这些可视化显著影响了参与者如何做出决策,以及他们如何看待机器人在不同置信度水平下的透明度。我们强调了潜在的权衡,并为机器人辅助决策提供了启示。我们的工作为人类如何在关键的机器人辅助决策场景中利用机器人传达的不确定性可视化提供了实证见解。
目标:基于运动想象 (MI) 的脑机接口 (BCI) 通常用于控制应用。然而,这些应用需要强大而有判别力的神经模式,因此可能需要丰富的 MI 经验。受康复领域的启发,在康复领域,具体化是改善皮质活动的关键要素,我们的研究提出了一种新颖的控制方案,在控制过程中提供虚拟具体化的反馈以提高性能。方法:受试者经历了两个沉浸式虚拟现实控制场景,他们使用脑电图 (EEG) 控制设备的二维运动。这两个场景仅在是否提供具体化反馈(反映分类意图的运动)方面有所不同。在经历每个场景后,受试者还回答了一份问卷,在问卷中他们对场景的沉浸感和反馈的具体化程度进行评分。结果:与没有具体化反馈的标准控制方案相比,受试者在使用我们的控制方案时表现出更高的控制性能、更大的大脑活动模式可辨别性和增强的皮质激活。此外,自我评价的体现和临场感得分与表现呈现出显著的正线性关系。意义:我们研究的结果提供了证据,表明提供体现反馈作为意图分类指导可能对控制应用有效,因为它可以诱导增强的神经活动和具有更大辨别能力的模式。通过将体现反馈应用于沉浸式虚拟现实,我们的研究也是另一个例子,表明虚拟现实是改善 MI 的有前途的工具。
1. 先确定技能或知识方面的差距;2. 通过具体化来缩小差距;3. 通过使其可量化来帮助自己;4. 退一步想想这是否现实;5. 最后,确定你想要实现目标的时间范围。
(2) 从分析角度来说,该小组借鉴了政策分析家和科技学者迄今为止罕见的工作成果,他们专注于超越“法律条文”的人工智能治理具体实践,例如使用民族志方法生成数据(即在“实地”预测警务的情况下:Sandhu 和 Fussey 2021;Selten 等人 2023)。世界各地的公共当局如何在日常运作中使用聊天机器人或算法评分系统,在这样做时如何具体化现有的人工智能政策(Liu、Lin 和 Chen 2019)?监管沙盒或标准化论坛中的参与者如何争夺“负责任的人工智能”的含义?这种政策具体化在不同空间如何变化,为什么会这样,对全球人工智能治理有何影响?大型科技公司如何在日益参与人道主义领域的过程中利用边缘化社区的数据财富?
• 优化作为状态空间问题 [ICDE'05] – 首次开展 ETL 优化工作 • 多重优化目标:性能、可维护性、容错性 • 中间结果具体化 • 并行化和基于分区的工作负载调度 • 物理设计和调度 • 具有类似 MapReduce 的 UDF 的数据流 • 多引擎流优化
摘要 近几年来,许多学者、公共和私人组织都参与了制定指导方针和框架,以具体化在开发和部署人工智能系统时应采用的原则。然而,一些作者指出,这些指导方针或道德准则对开发者社区的有效性非常有限。阻碍有效实施道德原则的障碍之一是缺乏解决在应用原则时出现的紧张局势的方法。解决这一问题的一个可能方法是采用基于风险的方法,这种方法也得到了许多消息来源的提倡。据我们所知,文献中没有提出关于如何进行基于风险的道德评估的具体建议。在本文中,我们通过引入一个基于定性风险分析方法的框架来评估在系统中引入技术或组织创新所产生的道德影响,从而缩小这一差距。我们还将展示如何使用该框架来具体化适当的保障措施,以平衡创新实施后可能带来的潜在道德侵权行为。我们还描述了网络安全环境中的一些案例研究,以证明我们方法的有效性。
摘要 近几年来,许多学者、公共和私人组织都参与了制定指导方针和框架,以具体化在开发和部署人工智能系统时应采用的原则。然而,一些作者指出,这些指导方针或道德准则对开发者社区的有效性非常有限。阻碍有效实施道德原则的障碍之一是缺乏解决在应用原则时出现的紧张局势的方法。解决这一问题的一个可能方法是采用基于风险的方法,这种方法也得到了许多消息来源的提倡。据我们所知,文献中没有提出关于如何进行基于风险的道德评估的具体建议。在本文中,我们通过引入一个基于定性风险分析方法的框架来评估在系统中引入技术或组织创新所产生的道德影响,从而缩小这一差距。我们还将展示如何使用该框架来具体化适当的保障措施,以平衡创新实施后可能带来的潜在道德侵权行为。我们还描述了网络安全环境中的一些案例研究,以证明我们方法的有效性。