职位详情 职位头衔:行业研究员 学院/作品集:STEM 学院 学院/团体:理学院 校园位置:位于市区校区,但可能需要工作和/或驻扎在大学的其他校区。 分类:学术水平 B 就业类型:固定期限 时间分数:0.5FTE 皇家墨尔本理工大学 RMIT 是一所多部门的技术、设计和企业大学,在全球拥有超过 96,000 名学生和近 10,000 名员工。该大学的使命是通过研究、创新和参与帮助塑造世界,并为学生创造变革性的体验,为他们的生活和工作做好准备。 https://www.rmit.edu.au/about https://www.universitiesaustralia.edu.au/university/rmit-university/ 我们在墨尔本的三个主要校区位于市中心的布伦瑞克和邦多拉。其他地点包括库克角、汉密尔顿和本迪戈,越南的两个校区(河内和胡志明市)以及西班牙巴塞罗那的一个中心。 RMIT 是一所真正的全球性大学。https://www.rmit.edu.au/about/our-locations-and-facilities 我们还致力于重新定义我们与土著人民自决的合作和支持关系。我们的目标是通过完善我们的价值观、文化、政策和结构,将和解融入我们所做的每一件事中,实现持久的变革。我们正在改变我们的认知、工作和生活方式,以支持可持续的和解,并激活土著和非土著员工、学生和社区之间的关系。我们在墨尔本的三个校区(城市、布伦瑞克和邦多拉校区)位于东部库林民族的 Woi Wurrung 和 Boon Wurrung 语言群体的未割让土地上。
序言 48-51:高风险人工智能系统应“具有抵御与系统限制相关的风险(例如错误、故障、不一致、意外情况)以及可能危及人工智能系统安全的恶意行为的能力……”ENISA 目前正在研究制定人工智能系统网络安全认证计划所涉及的主要考虑因素,预计本月将发布一份报告 (?)该法案的主要网络安全特定义务在第 15 条中列出,相应的透明度义务在第 13 条中列出。该法案要求高风险人工智能系统具有适当的稳健性、准确性和网络安全水平,并且必须在整个生命周期内保持这些水平。要采用的具体技术解决方案将取决于具体情况和风险。这些要求与现有立法重叠,即法规 2019/881 (CSA) 中规定的认证流程。
摘要 人工智能将改变我们生活的世界的许多方面,包括公司的治理方式。它可能会提高许多效率和改进,但也存在潜在的危险,包括对第三方造成有害影响的威胁、歧视性做法、数据和隐私泄露、欺诈行为甚至“流氓人工智能”。为了应对这些危险,欧盟发布了“专家组关于可信人工智能的政策和投资建议”(指南)。该指南从尊重人类自主、预防伤害、公平和可解释性四大基本支柱中提出了七项原则。如果由企业实施,将对公司治理产生巨大影响。该指南考虑了道德和法律交叉点的基本问题,但由于指南仅涉及前者而没有(太多)提及后者,因此它们的实际应用对企业来说具有挑战性。此外,虽然这些指南提倡许多积极的公司治理原则——包括以利益相关者为导向(“以人为本”)的公司宗旨以及多样性、非歧视性和公平性——但很明显,它们的普遍性留下了许多未解答的问题和担忧。在本文中,我们研究了《指南》对选定的公司法和治理问题的潜在意义和影响。我们的结论是,需要更具体说明其中的原则如何与公司法规则和治理原则相协调。然而,尽管《指南》存在不完善之处,但在更严格的立法手段出现之前,它们为指导企业建立值得信赖的人工智能提供了一个有用的起点。
Esri 的 AI 开发方法以旨在建立和维护信任的实践为基础。我们采用风险评估流程来评估新的 AI 产品和功能,确保它们符合相关的隐私和安全标准。秉承人机交互设计理念,我们开发的 AI 功能旨在支持包容性和用户控制。我们正在建立红队和毒害模型验证技术,通过模拟对抗性攻击和针对操纵数据进行验证来识别漏洞和潜在偏见。我们确保纳入道德护栏,以确保遵守道德原则。我们的生成式 AI 解决方案还在受控环境中经过整体实验室测试,并结合我们的人工监督框架,以保持人类参与 AI 支持的关键决策过程。
电信和信息管理局 (NTIA) 旨在对 OS 用户环境中的软件和相关依赖项的测量进行分类。[21]、[22] SBOM 不需要使用 TPM。根据设备健康证明 (DHA) 或完整性测量架构 (IMA) 等运行时测量服务的配置,SBOM 校验和哈希不能保证与软件的 TPM PCR 测量直接相关。但是,执行软件完整性测量的 SBOM 扫描代理(与 TPM 无关)可以使用校验和哈希。扫描器代理可以定期测量并记录到 TPM PCR,从而建立可信的完整性链。用作已知良好参考的 SBOM 应由负责给定软件的来源签名。
国际卫生信息学的发展受到生物医学技术和医学信息学研究发展的推动,两者并行发展,形成了一个信息和通信媒体的综合世界,并产生了大量的健康数据。这些组成部分包括基因组学和精准医学、机器学习、转化信息学、面向临床医生和患者的智能系统、移动健康应用、数据驱动的电信和康复技术、传感器、智能家居技术、电子病历和患者控制数据以及物联网。卫生技术和信息学 (HTI) 系列研究始于 1990 年,与欧盟在“地平线 2020”计划之前的计划合作,旨在促进生物医学和卫生信息学研究。它已发展成为一个备受瞩目的全球平台,用于传播该领域的原创研究,包含来自世界各地的 250 多卷高质量作品。国际编辑委员会选择与该领域相关且高质量的出版物。该系列的所有卷文都经过同行评审。 HTI 系列中的卷已提交至 MEDLINE/PubMed、Web of Science:会议论文集引文索引 – 科学 (CPCI-S) 和书籍引文索引 – 科学 (BKCI-S)、Google Scholar、Scopus、EMCare 进行索引。
Error 500 (Server Error)!!1500.That’s an error.There was an error. Please try again later.That’s all we know.
所提出的方法被设计为一个循序渐进的过程,目的是以务实和高效的方式支持和改进人工智能系统的设计、开发和采用。方法论问题指导开发团队,并作为促进遵守《人工智能法案》等法规的清单。这种方法可以系统地构建人工智能系统所需的文档并开发值得信赖的人工智能解决方案。
摘要 我们首次提出了一种可信接受度指标及其测量方法,以评估用于食品能量水 (FEW) 管理决策的基于 AI 的系统的可信度。所提出的指标是 AI 系统标准化进程中的重要一步。标准化 AI 系统的可信度至关重要,但到目前为止,标准化工作仍然停留在高级原则层面。所提出的测量方法包括人类专家的参与,并且基于我们的信任管理系统。我们的指标捕获并量化了现场专家在用户希望的尽可能多的控制点上对系统的透明评估。我们使用 AI 在食品-能源-水部门的决策场景中说明了可信接受度指标及其测量方法。但是,所提出的指标及其方法可以轻松地适应其他 AI 应用领域。我们表明,我们的度量标准成功地捕捉到了任意数量专家的总体接受度,可以用来对系统的各个点进行多次测量,并为测量的接受度提供置信度值。
摘要:在数字化和全球竞争的背景下,人工智能再次成为人们关注的焦点。人类伦理、监管以及该技术领域为经济和社会进步带来的潜在收益之间的紧张关系也日益凸显。本文旨在为关于人工智能中私人数据使用机会和不确定性的持续辩论做出贡献。我们讨论了人工智能成果的有效性,以及人工智能输入的数据质量。我们首先区分了人工智能系统的商业、公共、工业和科学数据领域。我们回顾了人工智能利用和保护大量私人数据的道德和监管方法。关于目前组织数据收集和保护的首选方式,我们分别引用了分布式账本系统和开放数据空间作为功能手段。我们最后认为,通过区分不同的人工智能数据领域来管理数据隐私和质量将能够在这两个方面实现合理的平衡。