[9] 郭东升 , 鲍劲松 , 史恭威 , 等 . 基于数字孪生的航天结构 件制造车间建模研究 [J]. 东华大学学报 ( 自然科学版 ), 2018, 44(4): 578-585, 607. Guo Dongsheng, Bao Jinsong, Shi Gongwei, et al. Research on Modeling of Aerospace Structural Parts Manufacturing Workshop Based on Digital Twin[J]. Journal of Donghua University(Natural Science), 2018, 44(4): 578-585, 607.
联合国可持续发展目标(UN SDG)已将移动连接确定为可持续经济增长和相关社会发展的关键驱动力。公共安全和数据隐私保护是社会发展的基础。6G预计将进一步加强公共安全和数据隐私,同时通过智慧城市、智能交互系统、智能医疗、智能交通、教育和智能零售等用例促进社会发展。这些用例对全球社会的发展和成长都很重要。隐私系统的大量暴露和用户数据应用的大量处理(例如,工业智能控制、无人驾驶汽车、虚拟现实和其他高科技相关行业)将需要在6G中内置基本保护措施。基本上,数据和控制系统暴露的影响越大,需要内置的保护和可靠性就越多。这意味着6G的可信度要求必须与社会需求保持一致,以确保个人的日常活动和应对社会挑战。
人工智能生态系统的特点是其动态和快速发展的特性,从开发者到最终用户和监管机构,涉及广泛的利益相关者。人工智能技术的吸引力不仅在于目前展示的能力,还在于它们有望满足数字互联世界日益增长的需求。然而,这种前景也伴随着重大挑战,这些挑战对该技术的可靠性、安全性和伦理影响提出了质疑。人工智能结果缺乏可解释性,甚至开发人员也难以理解人工智能模型如何做出某些决策,这可能会阻碍人们对人工智能的信任和理解,这凸显了对透明和负责任的系统的需求。此外,人工智能开发人员的道德价值观受到其地区、文化和教育背景的影响,这进一步使情况复杂化,表明在道德人工智能开发方面迫切需要共同点。此外,一个关键的挑战是人工智能开发人员缺乏网络安全专业知识,导致人工智能系统容易受到潜在威胁和入侵。随着人工智能越来越多地融入各个领域,对强大的网络安全控制的需求对于保护敏感数据和确保人工智能应用程序的完整性至关重要。德国标准化研究所(Deutsches Institut für Normung)在标准化路线图中承认了这些挑战,该路线图旨在确定标准化方面的差距并为政策制定者提供信息。
可信度经济是一种批判性和分析性的启发式方法,本书以此为框架,探讨通过媒体文化进行的性别和种族可信度斗争。在二十一世纪,媒体对性暴力的描述因大众女权主义的可见度提高而得到强化,因此大众女权主义干预越来越多地通过媒体表达出来(Banet-Weiser,2018 年;Rottenberg,2018 年;Orgad 和 Gill,2022 年)。在关于大众女权主义和大众厌女症的文章中,Banet-Weiser(2018 年)认为,可见度经济是当代背景下的一种大众女权主义形象、表达和实践,这种形式在很大程度上是肯定性的和个人赋权的。在这种经济中,大众女权主义往往始于可见度,也终于可见度;可见度本身就是一种目的,而不是实现其他目的(如社会变革)的手段。事实上,在当代,存在着媒体学者赫尔曼·格雷(Herman Gray,2013)所说的“对可见性的煽动”。他问道,当最初产生认可必要性的社会结构发生转变时,这种对可见性的追求能产生什么结果。例如,当媒体对有色人种的报道越来越多,但日常生活中种族主义行为却越来越露骨时,可见性的提高意味着什么?因此,格雷问道,“对认可的渴望”是否会用对个人立场的认可取代结构性变化。可见性经济在#MeToo全球运动中以惊人的方式体现出来。依靠大众女权主义蓬勃发展的可见性回路,#MeToo
近年来,大量研究和指导表明,提高人工智能 (AI) 系统的可信度是私营和公共部门的共同优先事项。1,2,3 然而,可信人工智能的含义以及实现它的潜在方法仍然存在争议。4,5,6 利益相关者往往缺乏共同的词汇或一组需要考虑的问题,而且很少有针对人工智能开发者和政策制定者的指导。现有的可信人工智能框架还倾向于关注一组相对狭窄的人工智能模型和直接与人互动的应用程序。7 自 2021 年以来,美国国家标准与技术研究所 (NIST) 一直在与不同的利益相关者合作,开发旨在促进可信人工智能的人工智能风险管理框架 (RMF)。在本文中,我们分析了可信人工智能的前景,并介绍了一种人工智能可信度分类法,旨在补充和支持 NIST AI RMF 的使用。
“凭借经验、表现和测试,您已晋升为首席军士长。在美国海军——而且只有在美国海军——E7 军衔具有独特的责任和特权,您需要履行并必须遵守。您的整个生活方式都发生了变化。对您的期望会更高;对您的要求也会更高。不是因为您是 E7,而是因为您现在是一名首席军士长。”
人们经常根据面部外观做出各种特征判断,而这些判断会影响重要的社会结果。这些判断彼此高度相关,反映了效价评估渗透到面部特征判断中的事实。可信度判断最接近这种评估,这与杏仁核参与面部可信度隐性评估的证据一致。基于计算机建模和行为实验,我认为面部评估是功能自适应系统的延伸,用于理解情绪表达的交流意义。具体而言,在缺乏诊断性情绪线索的情况下,可信度判断是一种推断行为意图的尝试,这些行为意图表明了趋近/回避行为。相应地,这些判断来自与情绪表达相似的面部特征,这些情绪表达表明了此类行为:快乐和愤怒分别代表可信度连续体的正端和负端。情绪过度泛化假说可以解释高效但不一定准确的面部特征判断,这种模式从进化的角度来看似乎令人费解,并且还产生了关于大脑对面部反应的新预测。具体来说,该假说预测杏仁核对面部可信度的非线性反应,这已在功能性磁共振成像 (fMRI) 研究中得到证实,并且面部身份处理和面部评估之间存在分离,这已在发育性面部失认症研究中得到证实。最后,我总结了一些面部评估研究的方法论意义,重点关注在社会维度上正式建模面部表征的优势。
人工智能 (AI) 领域的加速发展暗示着需要将“信任”视为设计原则而不是选择。此外,基于人工智能的关键系统的设计,例如航空电子、移动、国防、医疗保健、金融、关键基础设施等,需要证明其可信度。因此,基于人工智能的关键系统必须由不同方(监管机构、开发商、客户、再保险公司和最终用户)出于不同原因从多个维度进行评估。我们可以称之为人工智能验证、监控、评估或审计,但在所有情况下,基本概念都是确保人工智能在其操作设计领域内表现良好。此类评估从开发的早期阶段开始,包括定义系统的规范要求、分析、设计等。信任和可信度评估必须在系统生命周期的每个阶段考虑,包括销售和部署、更新、维护或内部。预计只有在建立可信度的技术措施与使用和开发人工智能的组织的治理和流程规范相结合的情况下,才能在人工智能系统中建立完全的可信度。应用社会科学和人文科学 (SSH) 方法和原则来处理人与人工智能的互动,并帮助在设计和评估中实现(道德)价值观,
摘要尽管最近人们致力于使人工智能系统更加透明,但人们对此类系统普遍缺乏信任,这仍然阻碍了人们和组织使用或采用它们。在本文中,我们首先从最终用户可解释性和规范伦理的角度介绍评估人工智能解决方案可信度的方法。然后,我们通过一个涉及实际商业环境中使用的人工智能推荐系统的案例研究说明了它的采用情况。结果表明,我们提出的方法可以识别与人工智能系统相关的广泛实际问题,并进一步支持制定改进机会和通用设计原则。通过将这些发现的机会与道德考虑联系起来,总体结果表明,我们的方法可以支持可信人工智能解决方案的设计和开发以及符合道德的业务改进。