摘要 公共部门采用人工智能 (AI) 有可能改善服务交付。然而,与人工智能相关的风险很大,公民的担忧已经停止了多项人工智能计划。在本文中,我们报告了一项关于挪威公民对公共服务中使用人工智能的态度的实证研究的结果。我们发现了一种普遍积极的态度,并确定了促成这种态度的三个因素:a) 对政府的高度信任;b) 人类参与其中所带来的保证;c) 对流程、用于人工智能模型的数据和模型内部运作的透明度。我们通过社会契约理论的视角来解释这些发现,并展示了人工智能在公共服务中的引入如何受到社会契约权力动态的影响。我们的研究通过突出政府与公民的关系为研究做出了贡献,并对公共部门的人工智能实践产生了影响。
最近的估计显示,在11月至12月,新德里及其周围城市的空气污染原因约为70%。不仅旁遮普邦和哈里亚纳邦,稻草燃烧在其他州都非常迅速。主要燃烧会导致CO2,CO,SOX,NOX,颗粒物和CH4的发射,从而大大增加空气污染和GHGS/碳足迹。悖论是,一方面,我们缺乏动物饲料,生物燃料和肥料,另一方面,浪费或燃烧了大量的作物残留物。这不仅是自然可再生资源的巨大损失,而且与此同时,它还是温室气体(GHG)排放和环境污染的来源。但是,这些残基可以有效地用作覆盖物,用于生产肥料,乙醇,生物柴油,生物炭等,以及在保护农业中。There are knowledge gaps on the economic technologies for in-situ and ex-situ composting of straw, characterization of rice straw of available varieties for various purposes, cost- effective small-scale technologies for bio-energy production, technologies for value addition of paddy straw in view of present day mechanized agriculture and authentic database on contribution of straw burning in air pollution and GHGs/ carbon footprint.
杰拉尔德·J·图森 杰拉尔德·J·图森是佐治亚理工学院工业与系统工程学院名誉教授。他在斯坦福大学获得工业工程学士、硕士和博士学位。他的研究兴趣包括工程经济分析、资本预算和统计决策理论。他与他人合作撰写了两本大学教材,《工程经济学》和《经济决策分析》。1981 年至 1991 年,他担任《工程经济学家》编辑,是美国工程教育学会会员,并担任董事会成员。图森博士于 1977 年和 1989 年获得尤金格兰特奖,并于 1989 年因在工程经济领域的杰出贡献和服务获得惠灵顿奖。1990 年,他获得 IIE 颁发的杰出出版物奖。他是工业工程师协会会员,并担任董事会成员。
最近,ChatGPT 迅速流行起来,并在短时间内吸引了大量用户,进入了我们的生活。OpenAI 开发的最先进的语言模型 ChatGPT 利用先进的深度学习技术模拟人类语音并回答文本输入。凭借全面的文本数据库,ChatGPT 能够就广泛的主题提供准确的信息和响应。它的多功能性使其成为各种应用的宝贵资产,包括对话式人工智能和聊天机器人,通过类似人类的交互和自动文本生成改善用户体验,以及问答和语言翻译等自然语言处理任务。这种语言模型有可能彻底改变人工智能领域以及人与技术互动的方式。
摘要 本研究调查了 445 名中小学和高等教育教师,以了解他们在课堂上使用人工智能工具的情况。结果显示,虽然教师普遍对教育中的人工智能持积极态度,但只有 25% 的教师真正将基于人工智能的工具融入教学中。此外,最常用的工具是 ChatGPT、Dall-E 和 Midjourney。最后,中小学教师主要将人工智能用于内容创作目的,例如演示文稿、文本或视频,而不强调学生对人工智能工具的参与。相比之下,高等教育教师将人工智能用于学术技术目的,解释人工智能的功能、获取信息并让学生尝试使用人工智能工具,以及与研究相关的任务,如文本翻译或数据分析。基于这些结果,教育工作者的人工智能培训计划应针对每个阶段量身定制,除了常用的 ChatGPT 等人工智能工具外,还应纳入更广泛的人工智能工具。
0:00 你好。我的名字是 Jibu Elias,我将谈论文化在人工智能伦理中的作用,特别是从东方文化的角度。在开始之前,我要感谢全球人工智能伦理联盟提供的这个绝佳机会。希望你会喜欢这次讲座。在开始之前,让我先自我介绍一下。我是来自印度的人工智能伦理学家和研究员。我目前是印度政府人工智能倡议 INDIAai 的研究和内容主管。我还是 OECD 专家网络 ONE AI 的成员,也是 Springer 的《人工智能与伦理》期刊的创始成员之一。因此,目前,我的工作重点是建立印度统一的人工智能生态系统,并努力缩小由于人工智能等技术而产生的数字鸿沟。通过本课程,我将带您了解以下几点。首先,我们将从当前情况下人工智能伦理的重要性开始,文化在决定人工智能伦理方面发挥的作用。第三,为什么我们需要在人工智能伦理话语中实现多样性和包容性。第四和第五点是我们可以从东方文化视角的人工智能伦理以及东方哲学方法中学到的东西。
由于预训练的深度学习模型大量可用,迁移学习在计算机视觉任务中变得至关重要。然而,从多样化的模型池中为特定的下游任务选择最佳的预训练模型仍然是一个挑战。现有的衡量预训练模型可迁移性的方法依赖于编码静态特征和任务标签之间的统计相关性,但它们忽略了微调过程中底层表示动态的影响,导致结果不可靠,尤其是对于自监督模型。在本文中,我们提出了一种名为 PED 的富有洞察力的物理启发方法来应对这些挑战。我们从势能的视角重新定义模型选择的挑战,并直接模拟影响微调动态的相互作用力。通过捕捉动态表示的运动来降低力驱动物理模型中的势能,我们可以获得增强的、更稳定的观察结果来估计可迁移性。在 10 个下游任务和 12 个自监督模型上的实验结果表明,我们的方法可以无缝集成到现有的排名技术中并提高其性能,揭示了其对模型选择任务的有效性以及理解迁移学习机制的潜力。代码可在 https://github.com/lixiaotong97/PED 上找到。
