发言人:Vineeth N Balasubramanian博士(印度技术研究所海得拉巴)。摘要:在过去十年中,有监督的学习是机器学习的预兆,近年来在应用领域都产生了巨大影响。但是,识别静态训练的机器学习模型的概念正在越来越多地限制,因为这些模型被部署在改变和不断发展的环境中。在一些相关的环境中,开放式和开放世界的学习引起了从业者的兴趣,以解决从新信息中学习的需求,包括急需的说“我不知道”的能力。在本演讲中,我们将简要讨论这些设置,并强调它们在应对现实世界挑战方面的重要性。演讲将涵盖我们最近关于开放世界对象检测的研究(CVPR 2021),新颖的类发现(ECCV 2022)和开放集对象检测(WACV 2024),并共享这些努力的有趣的现实情况。演讲将以指示结束,以此可以朝着这个方向发展成为一个社区的方法。
计算机视觉教授Vineeth N Balasubramanian计算机科学与工程学系印度技术学院的深度学习,海得拉巴27神经网络中的正规化(请参阅幻灯片时间:00:14)
摘要:技术发展给网络安全专家带来了安全挑战,他们缺乏对最新发展的知识。为了防止安全漏洞和网络攻击,专家需要巨大的支持,因为组织之间的连接会导致“流量大”、“安全漏洞”、“安全攻击媒介增加”,这对人类来说是一项具有挑战性的任务。传统算法有时在开发的系统中会失效。开发具有自动更新逻辑的软件是一项艰巨的任务。人工智能是在一定程度上消除网络安全问题的领域。“网络安全计算应用,并通过提出人工智能应用和现有方法来分析提高网络安全能力的观点”。本文涉及利用人工智能应用和技术应对网络安全。关键词:网络安全、人工智能、专家系统、神经网络、智能代理。一、简介:安全涉及许多方面,例如“信息安全”、“文件安全”和“财产安全”。现代技术的应用使安全性更强。从政府基础设施到网上银行,我们的世界都处于网络技术之下。因此,数据保护至关重要。全球网络安全线程的增加导致了人工智能在安全系统中的实施。随着世界依靠数字数据运行,人工智能和机器学习应用程序已应用于各个领域,这给专家带来了安全挑战。人工智能是解决“互联网威胁”、“识别恶意软件类型”、“确保实用安全标准”和“帮助制定更好的预防和恢复策略”的解决方案。人工智能和机器学习与数据科学相互关联,逐渐降低数据管理曲线的峰值,同时确保数据安全是强制性的。本研究提出了人工智能应用和技术在网络安全方面的贡献,
[1] Dario Amodei、Chris Olah、Jacob Steinhardt、Paul Christiano、John Schulman 和 Dan Mané。2016 年。《人工智能安全中的具体问题》。CoRR abs/1606.06565 (2016)。[2] Berkeley J. Dietvorst、Joseph P. Simmons 和 Cade Massey。2015 年。《算法厌恶:人们在发现算法有错误后会错误地避开它们》。《实验心理学杂志:综合》144, 1 (2015),114。[3] Berkeley J. Dietvorst、Joseph P. Simmons 和 Cade Massey。2018 年。《克服算法厌恶:如果人们可以(即使稍微)修改算法,他们也会使用不完美的算法》。《管理科学》64, 3 (2018),1155–1170。 [4] Julie S. Downs、Mandy B. Holbrook、Steve Sheng 和 Lorrie Faith Cranor。2010 年。您的参与者是否在玩弄系统?筛查 Mechanical Turk 工人。在 SIGCHI 计算机系统人为因素会议论文集上。2399–2402。[5] Jodi Forlizzi 和 Carl DiSalvo。2006 年。家庭环境中的服务机器人:对家用 Roomba 吸尘器的研究。在第一届 ACM SIGCHI/SIGART 人机交互会议论文集上。[6] Dylan Hadfield-Menell、Smitha Milli、Pieter Abbeel、Stuart J. Russell 和 Anca Dragan。2017 年。逆向奖励设计。在神经信息处理系统的发展中。[7] Bill Hibbard。2012 年。避免意外的 AI 行为。在国际通用人工智能会议上。Springer,107–116。[8] Lynn M. Hulse、Hui Xie 和 Edwin R. Galea。2018 年。对自动驾驶汽车的看法:与道路使用者的关系、风险、性别和年龄。安全科学 102(2018 年),1–13。[9] Rafal Kocielnik、Saleema Amershi 和 Paul N. Bennett。2019 年。您会接受不完美的人工智能吗?探索调整人工智能系统最终用户期望的设计。在 CHI 计算系统人为因素会议论文集上。[10] Moritz Körber。2018 年。衡量对自动化信任的理论考虑和问卷的开发。在国际人体工程学协会大会上。Springer,13–30。 [11] Victoria Krakovna、Laurent Orseau、Miljan Martic 和 Shane Legg。2019 年。使用逐步相对可达性惩罚副作用。在 AI 安全研讨会 IJCAI 中。[12] Victoria Krakovna、Laurent Orseau、Richard Ngo、Miljan Martic 和 Shane Legg。2020 年。通过考虑未来任务来避免副作用。在第 20 届神经信息处理系统会议论文集上。[13] Miltos Kyriakidis、Riender Happee 和 Joost CF de Winter。2015 年。公众对自动驾驶的看法:对 5000 名受访者的国际问卷调查结果。交通研究 F 部分:交通心理学和行为 32(2015 年),127–140。 [14] Ramya Ramakrishnan、Ece Kamar、Debadeepta Dey、Julie Shah 和 Eric Horvitz。2018 年。《发现强化学习中的盲点》。《第 17 届自主代理和多代理系统国际会议论文集》。[15] Stuart Russell。2017 年。《可证明有益的人工智能》。《指数生命,下一步》(2017 年)。[16] Sandhya Saisubramanian、Ece Kamar 和 Shlomo Zilberstein。2020 年。一种减轻负面影响的多目标方法。在第 29 届国际人工智能联合会议论文集上。[17] Sandhya Saisubramanian 和 Shlomo Zilberstein。2021 年。通过环境塑造减轻负面影响。在第 20 届自主代理和多智能体系统国际会议论文集上。[18] Sandhya Saisubramanian、Shlomo Zilberstein 和 Ece Kamar。2020 年。避免因对人工智能系统知识不完整而产生的负面影响。CoRR abs/2008.12146 (2020)。[19] Rohin Shah、Dmitrii Krasheninnikov、Jordan Alexander、Pieter Abbeel 和 Anca Dragan。 2019. 世界状态中的隐含偏好。第七届国际学习表征会议论文集。[20] Alexander Matt Turner、Dylan Hadfield-Menell 和 Prasad Tadepalli。2020. 通过可实现效用保存实现保守代理。AAAI/ACM 人工智能、伦理与社会会议论文集。[21] Ming Yin、Jennifer Wortman Vaughan 和 Hanna Wallach。2019. 理解准确度对机器学习模型信任的影响。CHI 计算系统人为因素会议论文集。[22] Shun Zhang、Edmund H. Durfee 和 Satinder P. Singh。2018. 分解马尔可夫决策过程中对副作用的 Minimax-Regret 查询以实现安全最优。在第 27 届国际人工智能联合会议论文集上。