旁遮普工程学院(等同于大学)(PEC)起源于 1921 年在拉合尔成立的穆加尔普拉工程学院,1953 年迁至现校区,成为旁遮普大学的附属 PEC。该学院于 2003 年通过 MHRD 通知成为等同于大学的学院,并于 2009 年更名为 PEC 理工大学。它是一所资助机构,由印度政府昌迪加尔联邦属地管理。该学院拥有 146 英亩的广阔而虔诚的校园,也是昌迪加尔建筑学院的所在地。学术和行政流程与印度的 IIT 相似。学院由充满活力的理事会管理,由著名实业家 Sh. Rajinder Gupta 担任主席。学院由一名任期 5 年的理事领导;该职位相当于大学副校长。该学院提供 11 个本科 B. Tech.、01 个 B Des 课程和 14 个研究生 M. Tech. 课程,涵盖工程和技术的各个学科。成为大学后,该学院还开设了工程、科学、管理、人文和社会科学等各个学科的博士学位课程。本科和研究生课程的录取分别通过国家级考试 JEE(Mains)和 GATE。学院设有 11 个学术部门、2 个中心和 2 个卓越中心。
(SHRI JITIN PRASADA)(a)至 d):印度政府强调“全民人工智能”的概念,这与总理在全国范围内培育和推动尖端技术应用的愿景相一致。这一举措旨在确保人工智能惠及社会各界,推动创新和增长。政府致力于利用人工智能 (AI) 的力量,在医疗、农业、教育、政府治理、新闻部和其他领域造福人民。与此同时,政府也意识到人工智能带来的风险。幻觉、偏见、错误信息和深度伪造是人工智能带来的一些挑战。为了应对人工智能的挑战和风险,政府认识到需要建立护栏以确保人工智能的安全和可信。因此,中央政府在与相关利益相关方进行广泛的公众协商后,于 2021 年 2 月 25 日公布了《信息技术(中介机构指南和数字媒体道德规范)规则》2021 年(“2021 年 IT 规则”),该规则随后于 2022 年 10 月 28 日和 2023 年 4 月 6 日进行了修订。2021 年 IT 规则对中介机构(包括社交媒体中介机构和平台)规定了具体的法律义务,以确保他们对安全可信的互联网负责,包括迅速采取行动消除被禁止的虚假信息、明显虚假的信息和深度伪造。如果中介机构未能遵守 2021 年 IT 规则规定的法律义务,他们将失去《2000 年信息技术法》(“IT 法”)第 79 条规定的避风港保护,并应根据任何现行法律承担相应的诉讼或起诉。 《2023 年数字个人数据保护法》于 2023 年 8 月 11 日颁布,该法案规定数据受托人有义务保护数字个人数据,追究其责任,同时确保数据主体的权利和义务。政府已成立人工智能咨询小组,针对印度特定的监管人工智能框架,由印度总理首席科学顾问 (PSA) 担任主席,来自学术界、工业界和政府的不同利益相关者参与,目标是解决与制定负责任的人工智能框架有关的所有问题,以实现人工智能的安全和可信开发和部署。
我们使用美国经济的半结构模型来估算自然利率(r∗),该模型共同表征产出、失业率、通货膨胀以及短期和长期利率等关键宏观经济变量的趋势和周期性因素。我们指定了货币政策规则和10年期国债收益率方程,以利用两个利率提供的信息来推断r∗。然而,由于有效下限,使用涵盖大衰退及其后果的样本的货币政策规则提出了挑战。我们设计了一种贝叶斯估计技术,该技术结合了类似Tobit的规范来处理删失问题。我们使用伪样本外预测练习来比较和验证我们的模型规范。我们的结果表明,r∗的平滑值在大衰退期间急剧下降,最终跌破零,并在2020年初一直为负。我们的结果还表明,消除审查
图 2 发声过程中运动的时间特性变化。(a)每个年龄组在发声前 3 秒开始并在发声后 3 秒结束的身体运动中位旋转速度的 z 分数。垂直实心黑线表示发声的开始,而垂直阴影区域表示该年龄组的发声持续时间中值。(b)每个年龄组在发声前 3 秒开始并在发声后 3 秒结束的身体运动中位旋转速度。垂直实心黑线表示发声的开始,而垂直阴影区域表示该年龄组的发声持续时间中值。水平阴影区域表示自举 95% 置信区间,黑线表示中值。红色中值区域表示旋转速度超出自举显着性检验界限的时间点。(c)发声前、发声中和发声后的中位身体速度。发声前后时间段的中位数与发声持续时间相同。误差线表示自举的 95% 置信区间。星号表示 p < 0.0001 的显著性。
NIU 学术课程和研究及公共服务中心审查时间表由于课程审查与学科认证周期相一致,因此在极少数情况下,课程审查和中期状态评估审查将在协调的第一个周期的同一学年进行。
摘要:目前,可解释性是人工智能 (AI) 在各个应用领域的实际实施方面面临的主要障碍。为了解决对基于 AI 的系统缺乏理解的问题,可解释人工智能 (XAI) 旨在使黑盒 AI 模型对人类更加透明和易于理解。幸运的是,已经引入了大量 XAI 方法从不同角度解决可解释性问题。然而,由于搜索空间巨大,对于 ML 从业者和数据科学家来说,从开发 XAI 软件开始并选择最合适的 XAI 方法是一项挑战。为了应对这一挑战,我们引入了 XAIR,这是对最有前途的 XAI 方法和工具的新颖的系统元评论。XAIR 通过将其结果与软件开发过程的五个步骤(包括需求分析、设计、实施、评估和部署)保持一致,从而与现有评论区分开来。通过这种映射,我们旨在更好地理解开发 XAI 软件的各个步骤,并促进创建包含可解释性的现实世界 AI 应用程序。最后,我们强调了未来研究的新方向。
在新的 2022-2027 年全球战略中,气候变化被提升为一个跨领域主题,涵盖发展和人道主义行动。扩大人道主义规划工作仍然是 PIUK 的战略目标之一,重点关注性别平等,以及气候变化和环境恶化对儿童和女孩的影响。此外,PIUK 的重点仍将是减少灾害风险和增强抵御力,并增加认识到发展和人道主义规划之间相互关系(“纽带”)的工作。特别是,PIUK 将继续高度重视支持社区,使他们做好应对冲击的准备并具有抵御力。2. 最大限度地提高我们工作的环境可持续性,并迅速减少我们的温室气体排放
功能性磁共振成像(fMRI)用于评估认知训练对大脑激活的影响,大脑激活是学习阶段和教育水平的函数。40 名患有主观认知衰退(SCD)的老年人接受了 6 次 1 小时的记忆训练,训练方式为位置法。在训练前(PRE)、3 次训练后(POST3)和 6 次训练后(POST6)的单词表编码和检索过程中测量了脑成像(N = 29)。无论受教育程度如何,参与者都表现出从 PRE 到 POST6 在编码过程中左侧下额叶前回激活增加,而从 PRE 到 POST3 在检索过程中双侧额叶纹状体激活减少。从 PRE 到 POST3,右侧颞叶两个区域的激活变化随受教育程度而变化:受教育程度较低的参与者激活增加,而受教育程度较高的参与者激活减少。受教育程度较低的人这些区域最初不太活跃。结果表明,受教育程度较低的人发生了战略转变,而受教育程度较高的人则积累了专业知识,同时恢复了与教育相关的初始差异。© 2022 作者。由 Elsevier Inc. 出版。这是一篇根据 CC BY-NC-ND 许可协议开放获取的文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)
CIPL 对欧盟委员会关于《人工智能法案》草案的咨询的回应 CIPL 1 欢迎就欧盟委员会关于《欧洲人工智能法案》2(“AI 法案”或“法案”)的提案进行咨询,以将其纳入欧盟立法程序。CIPL 很高兴看到《人工智能法案》采纳了 CIPL 关于采用基于风险的方法监管欧盟人工智能的文件中提出的几项建议。3 这些建议旨在培养对人工智能的信任,而不会妨碍其负责任的发展。特别是,CIPL 欢迎该法案基于风险的方法,该方法将适用于高风险的人工智能用例,而不会监管人工智能技术本身或整个行业。CIPL 还欢迎拟议使用统一标准和行业自我评估产品符合性,因为这些机制已被证明能够成功推动创新并在欧盟市场开发安全可信的技术。CIPL 还欢迎旨在支持创新的措施,特别是通过为监管沙盒提供法定基础。最后,CIPL 很高兴看到《人工智能法案》中概述的一些要求与一些现有的行业惯例相一致,这些惯例为确保负责任地开发和使用人工智能设定了高标准。4 然而,CIPL 遗憾的是,《人工智能法案》没有充分考虑到一些必要条件,例如提供基于结果的规则;明确允许组织根据人工智能系统的风险和收益来调整对要求的遵守情况;奖励和鼓励负责任的人工智能实践;利用监管沙盒的经验教训;并澄清《人工智能法案》的监督和执行条款也应基于风险。CIPL 重申,要使《人工智能法案》有效地保护基本权利,同时也为欧盟创新的新时代奠定基础,它需要足够灵活以适应未来的技术。此外,该法案不能过于严格,以免抑制包括公共卫生或环境在内的一系列行业和部门对人工智能的宝贵和有益的创新和使用。最后,《人工智能法案》将受益于有针对性的调整,以更好地明确人工智能提供者、部署者和用户的责任平衡,特别是对于通用人工智能和开源人工智能模型。