Loading...
机构名称:
¥ 1.0

从 Fussa Gate 直行,在拿着扫帚的人那里左转,在燃烧的人那里右转,我的房子是紫色的,有一辆红色的小克尔维特——1970-7 Mamiya House

例子

例子PDF文件第1页

相关文件推荐

2003 年

人工智能在土木/建筑/建筑工程教育中的应用 Mohammed E. Haque 建筑科学系 德克萨斯 A&M 大学 Vikram Karandikar 建筑科学系 德克萨斯 A&M 大学 摘要 对于某些科学和工程教育领域来说,超越传统的院系课程界限变得越来越重要。人工智能 (AI) 就是这样一个领域;它的应用非常广泛且跨学科。应特别鼓励研究生学习当代计算技术的各种应用,包括人工神经网络 (ANN)、遗传算法 (GA) 等。土木/建筑/建筑工程对神经启发计算技术的应用兴趣日益浓厚。这种兴趣的动机是某些信息处理特性与人脑相似。软计算 (SC) 是一种新兴的计算方法,它与人类思维在确定性和精确性的环境中推理和学习的非凡能力相​​似。本文重点介绍了人工智能在土木/建筑/建筑工程尤其是 SC 领域的各种应用。作为毕业项目的一个例子,本文展示了一个基于 ANN 和 GA 的知识模型,其中研究了客户对大型多层公寓住宅方案的舒适性和安全性问题的偏好。建筑/工程是一门应用科学,可以从现有结构及其成功和失败中吸取许多教训,并将它们结合起来以找出更好的结构的新技术。这意味着设计师应该能够从每个以前的设计中得出一些定性值,特别是用户对建筑安全性和舒适度质量的认可,以确保设计成功。建筑师/设计工程师经常面临软​​数据的挑战,这些数据本质上是语言定性的,需要解释并融入他们的设计决策过程。他们应该非常了解客户的愿望和要求,尤其是客户在具体设计问题上的偏好。因此,后期

¥1.0
2024 年

USask 的临时人工智能 (AI) 原则和指南 i USask 的 AI 原则旨在确保以支持 USask 的使命、愿景、价值观和战略目标的方式合乎道德、有效和负责任地使用 AI,并维护所有利益相关者的信任和信心。这些原则和指南旨在指导我们提供、支持和使用 AI 工具开展研究、教学、管理和支持服务。重要的是,当 AI 成为研究或教学的主题时(例如,关于 AI 的研究或教学),其中一些原则和指南可能不适用。这些活动被视为通过其他大学政策和实践以及学术自由的权利和义务进行管理。USask 坚持包括合议和包容性 ii 在内的核心价值观。重要的是,我们的流程包括研究人工智能 (AI) 使用教育特定原则的有影响力的例子,包括《北京人工智能与教育共识》 iii 和世界经济论坛的《教育人工智能七项原则》 iv 。这些框架要么以联合国教科文组织的《人本主义人工智能十大核心原则》为基础,要么以此为参考。以这些国际范例为参考点,萨斯喀彻温大学人工智能原则是通过一个强大而反复的过程制定的,该过程涉及来自我们校园各地的社区成员。萨斯喀彻温大学的人工智能原则和实践对于萨斯喀彻温大学的人工智能使用具有包容性、响应性和有效性。我们将继续采取持续响应的方式,以不断发展的人工智能原则和指导方针——考虑大学社区的反馈和人工智能技术的进步——以确保人工智能的使用保持有效、相关,并与我们大学不断变化的需求和价值观保持一致。随着萨斯喀彻温大学社区成员得到支持,将他们的人工智能实践与这些原则和指导方针保持一致,将培养一种负责任和道德的人工智能文化。萨斯喀彻温大学将接受我们作为人工智能使用方面的批评者和社会良知的角色,将公开其人工智能使用的原则和指导方针,并随着原则和指导方针的不断发展及时提供更新。重要的是,这些原则代表了我们在快速变化的环境中使用人工智能的愿望。道德和负责任的使用 1. 负责任。人类有意的选择和行动引领着我们对人工智能的使用,而人工智能

¥1.0
2020 年

非人类人道主义:当人工智能的善举变成坏事时 Mirca Madianou 伦敦大学金史密斯学院 2018 年,有超过 1.68 亿人需要人道主义援助,同时有超过 6900 万人成为难民,人道主义部门面临着重大挑战。人工智能 (AI) 应用可以成为人道主义危机的潜在解决方案的提议受到了热烈欢迎。这是“人工智能用于社会公益”大趋势的一部分,也是“数字人道主义”更广泛发展的一部分,“数字人道主义”指的是公共和私营部门为应对人道主义紧急情况而使用数字创新和数据。聊天机器人、声称可以预测未来流行病或人口流动的预测分析和建模以及依赖于采用机器学习算法的先进神经网络的生物识别技术,都是在援助行动中越来越受欢迎的例子。本文建立了一个跨学科框架,将殖民和非殖民理论、人道主义和发展的批判性探究、批判性算法研究以及对人工智能的社会技术理解结合在一起。人道主义在这里被理解为一种复杂的现象:不仅仅是通常定义的“减少痛苦的必要性”(Calhoun,2008),而且是一种行业、一种话语和一种源于 19 世纪和 20 世纪殖民主义的历史现象(Fassin,2012;Lester & Dussart,2014)。人工智能同样是一个多面现象:不仅仅是基于先进计算和机器学习算法的技术创新,而且是一个行业以及关于技术的特定话语。人工智能只能与数据和算法一起理解——这三者是不可分割的,因为人工智能依赖于机器学习算法,而机器学习算法是特定数据集的产物。鉴于“大数据”本质上是不完整的,且具有本体论和认识论的局限性(Crawford & Finn,2014),人工智能应用会重现并可能放大大型数据集中发现的现有偏见(Benjamin,2019;Eubanks,2018;Noble,2018 等)。

¥1.0
2024 年

CAIRS:用于数字心理健康的因果人工智能推荐系统 Mathew Varidel,博士 a;Victor An a,Ian B. Hickie a,医学博士,Sally Cripps b,c,博士,Roman Marchant b,c,博士,Jan Scott d,博士,Jacob J. Crouse a,博士,Adam Poulsen a,博士,Bridianne O'Dea e,博士,Frank Iorfino a,博士 a 悉尼大学大脑与思维中心,澳大利亚新南威尔士州。 b 悉尼科技大学人类技术研究所,澳大利亚新南威尔士州。 c 悉尼科技大学数学与物理科学学院,澳大利亚新南威尔士州悉尼。 d 纽卡斯尔大学神经科学研究所学术精神病学,英国纽卡斯尔。 e 弗林德斯大学心理健康与福祉研究所,弗林德斯大学,南澳大利亚阿德莱德,澳大利亚。 * 通讯作者:Mathew Varidel,5 楼,1 King Street,Newtown,新南威尔士州 2042,mathew.varidel@sydney.edu.au 摘要 数字心理健康工具有望增强和扩大有需要的人获得医疗服务的机会。一些工具向个人提供干预建议,通常使用简单的静态规则系统(例如,if-else 语句)或结合预测性人工智能。然而,干预建议需要基于对不同干预措施下未来结果的比较来做出决定,这需要考虑因果关系。在这里,我们开发了 CAIRS,这是一个因果人工智能推荐系统,它使用个人的当前表现和领域之间学习到的动态来提供个性化的干预建议,以识别和排名对未来结果影响最大的干预目标。我们的方法应用于从数字心理健康工具收集的两个时间点(从基线开始 1 周 - 6 个月)的多个心理健康和相关领域的纵向数据。在我们的例子中,心理困扰被发现是影响多个领域(例如个人功能、社会联系)的关键影响领域,因此在多个领域不健康的复杂情况下,心理困扰通常是首选目标。我们的方法广泛适用于因果关系很重要的推荐环境,并且该框架可以纳入实时应用程序中以增强数字心理健康工具。关键词:因果关系;人工智能;决策理论;幸福感;心理困扰;功能;睡眠;社会支持

¥1.0
2021 年

用于人工智能和神经形态计算的硅光子学 Bhavin J. Shastri 1,2、Thomas Ferreira de Lima 2、Chaoran Huang 2、Bicky A. Marquez 1、Sudip Shekhar 3、Lukas Chrostowski 3 和 Paul R. Prucnal 2 1 加拿大安大略省金斯顿皇后大学物理、工程物理和天文学系,邮编 K7L 3N6 2 普林斯顿大学电气工程系,邮编 新泽西州普林斯顿 08544,美国 3 加拿大不列颠哥伦比亚大学电气与计算机工程系,邮编 BC 温哥华,邮编 V6T 1Z4 shastri@ieee.org 摘要:由神经网络驱动的人工智能和神经形态计算已经实现了许多应用。电子平台上神经网络的软件实现在速度和能效方面受到限制。神经形态光子学旨在构建处理器,其中光学硬件模拟大脑中的神经网络。 © 2021 作者 神经形态计算领域旨在弥合冯·诺依曼计算机与人脑之间的能源效率差距。神经形态计算的兴起可以归因于当前计算能力与当前计算需求之间的差距不断扩大 [1]、[2]。因此,这催生了对新型大脑启发算法和应用程序的研究,这些算法和应用程序特别适合神经形态处理器。这些算法试图实时解决人工智能 (AI) 任务,同时消耗更少的能量。我们假设 [3],我们可以利用光子学的高并行性和速度,将相同的神经形态算法带到需要多通道多千兆赫模拟信号的应用,而数字处理很难实时处理这些信号。通过将光子设备的高带宽和并行性与类似大脑中的方法所实现的适应性和复杂性相结合,光子神经网络有可能比最先进的电子处理器快至少一万倍,同时每次计算消耗的能量更少 [4]。一个例子是非线性反馈控制;这是一项非常具有挑战性的任务,涉及实时计算约束二次优化问题的解。神经形态光子学可以实现新的应用,因为没有通用硬件能够处理微秒级的环境变化 [5]。

¥1.0
2021 年

“如何度过人工智能寒冬” James Luke 博士,IBM 杰出工程师和首席发明家 如果您不知道,人工智能寒冬是指在人们对人工智能的期望达到顶峰之后出现的低迷,资金枯竭,专业人士对其潜力嗤之以鼻。70 年代末 80 年代初发生过一次人工智能寒冬,十年后又发生过一次——最后一次是在 1992 年。在这样的“寒冬”里,人们对人工智能嗤之以鼻并不罕见——James Luke 深情地回忆起 IBM 的一位(至今仍是)高管在他职业生涯早期告诉他,“如果你想在公司有所成就,就离开人工智能”。但即便是 Luke 也承认,考虑到挑战的规模,出现怀疑者并不奇怪。Luke 在会议开幕式主旨演讲中表示:“我们试图用人工智能重塑人脑的智能,这是人类面临的最大工程挑战。” “它比曼哈顿计划、比大型强子对撞机还要大——但我们通常只以两三个人组成的团队进行研究。”尽管如此,他仍敦促与会代表对人工智能保持积极态度,因为如果以正确的方式对待,人工智能可以发挥作用并带来巨大的机遇。那么,什么才是“正确的方式”?卢克说,人工智能有效用例的最佳例子之一仍然是 1997 年超级计算机深蓝与世界冠军国际象棋选手加里卡斯帕罗夫之间的著名比赛。深蓝曾在 1996 年挑战卡斯帕罗夫并失败,而它的架构师 IBM 决心不再重蹈覆辙。IBM 工程师寻求另一位国际象棋大师的帮助来构建深蓝,并对计算机进行编程,使其能够预测未来 14 步。从本质上讲,它复制了人类的能力,但通过巨大的规模进行了扩展。尽管“深蓝”赢得了 1997 年的锦标赛,但它的局限性也暴露无遗。当时参与打造它的大师说:“深蓝每秒评估两百万步,我评估三步。但我怎么知道该评估哪三步?”卢克说,这句话完美地概括了人工智能的缺点:“我们还没有解决这个问题,我们不明白大师如何知道该评估哪三步。这是智能和人工智能之间差异的一个很好的例子。人工智能不会比人类更好——人类脑细胞比电子神经元复杂得多。”他补充说,人工智能经常被认为比人类智能更好,因为它不会忘记东西。但卢克认为,人类忘记的能力是智能的一部分,因为忘记可以帮助我们“概括、实验和学习”——更不用说不会被我们做过的所有可耻的事情所打败。卢克分享了三条让人工智能发挥作用的建议:

¥1.0
2020 年

PC12 是同类飞机中制造最精良、飞行最安全的飞机之一。对吗?作者:John Morris 绝对正确!但既然如此,那么为什么在过去一年(2008 年 9 月至 2009 年 8 月)期间,[报告的] 事件(1)/ 事故(4 起致命)不幸增加?当局对所有 PC12 事故(视为已结案)以及美国大多数航空事故给出的主要原因是人为因素或空间定向障碍,通常意味着这是飞行员的错。无论使用何种措辞,将其归咎于飞行员,有时似乎是一个过于简单的借口,而且不公平,尽管将其归咎于其他人(或事物)已成为一种全国性的消遣。然而,与所有其他指责者不同,在提到人为因素的情况下,飞机事故调查的范围及其结论确实指向某种判断或决策错误,而这种错误至少可能导致最终结果。我们都应该意识到导致这一结果的事件“链”,飞行员的行为或不作为可以形成联系或打破这一链条。所以我们又一次在这里讨论决策和风险管理。为什么?在我看来,我们需要另一次审查,也许还需要一个不同的视角。FAA [风险管理手册 - 2009 年 5 月]、AOPA 和其他来源提供了风险管理工具。它们非常有用,至少应该定期参考。但本文将重点关注从不同角度看到的决策和风险管理,即对 PC12 能力可能过度自信,导致决策失误和风险增加。在我多年的教学中,我通常会提到 Pilatus 如何出色地“确保”PC12 的飞行员安全,这意味着消除了许多飞行员可能导致事故/意外的经典方式。但没有人可以完全消除人为因素或消除破坏系统的手段。最终,重力总是占上风。因此,我们希望努力涵盖所有有形因素,并为无形因素做好准备。我很好奇,驾驶员是否会对 PC12 及其功能过于自信。让我们谈谈有形因素。技术是否助长了这种过度自信?当今的技术比以往任何时候都更加神奇,而且变化/改进的速度不是几年,而是几个月。因此,我确实相信,这会产生问题,成为链条中的一个环节,直到飞行员适应更新的可用技术。这方面的例子包括改进的下载天气信息、WAAS 升级的航空电子设备-自动驾驶仪接口,甚至 PC12NG 与 Apex 系统。我所说的调整是指正确理解和利用这些新信息,因为它适用于增强 PC12 的飞行。这也意味着了解这项新技术不那么明显的局限性,从而知道何时使用标准、基本的飞行判断,如果有疑问。另一个有形的是飞行员驾驶 PC12 的一般熟练程度,而不仅仅是仪表熟练程度。FAA 通过改变方法提供了一些帮助

¥1.0