机器学习或深度学习解决方案通常被描述为具有通过经验自动学习或改进的能力。但当今可用的人工智能系统在部署后不会自动学习新技能,也不会记住发生的特定事件。为了提高系统的性能,需要在监督学习期间使用更好、更准确的数据进行重新训练。无监督学习通常需要大量数据来生成集群,因此不用于视频监控应用。相反,它目前主要用于分析大型数据集以发现异常,例如在金融交易中。大多数在视频监控中被宣传为“自学习”的方法都是基于统计数据分析,而不是真正重新训练深度学习模型。
搬迁沙田污水处理厂往岩洞的实时大数据人工智能环境影响评估 (AIEIA) 执行摘要 搬迁沙田污水处理厂往岩洞(本项目)的环境影响评估中,位于沙田马场和周边河道的彭福公园鹭鸟林被列为环境指标之一。目前,香港对鸟类生态栖息地的监测主要以人为观察为主,而人为观察的时间间隔有限。由于繁殖季节环境变化微妙,人为不易分辨鸟类行为的细微变化。渠务署藉此机会与香港科技大学合作,通过在项目下对彭福公园鹭鸟林进行先导观察,探索将最先进的绿色人工智能 (AI) 技术融入环境监测。观察是明智行动的第一步。完整的阵列数据收集系统 (ADCS) 和实时数据提取管道架构经过全面设计,可实现模块化,并可成功部署在各种结构中,确保在所有环境中可靠运行。ADCS 具有多种优势,可满足户外环境长期监测的需求:(i) 自动连续录制;(ii) 高分辨率视频;(iii) 高帧率视频;(iv) 巨大的本地数据存储;(v) 保护恶劣环境(例如极端天气条件)。采用一种新的视频压缩标准高效视频编码 (H.265) 来处理、存储和传输高分辨率视频,同时保持视频质量。在户外环境中实现数据采集自动化之后,实施了 AI 算法,以从长达数月的数据中检测鸟类。本研究重点是检测大白鹭和小白鹭,即研究地点的主要鸟类。AI 算法开发的主要挑战是缺乏香港鸟类的标记数据集。为了解决这个问题,我们利用 3D 建模制作了大白鹭和小白鹭的合成鸟类数据集。在虚拟图像的开发过程中,我们应用了姿势和身体大小等显著特征的大量变化,这反过来又迫使模型专注于专家用来区分鸟类物种的细粒度鸟类特征,例如颈部和头部。经过训练的 AI 模型能够在不同背景下以高预测分数区分和定位鸟类物种,平均准确率达到 87.65%。我们的人工智能 ADCS 解决方案比传统的人工观察具有多种潜在优势,能够在不同的天气条件下为不同物种的鸟类计数、行为研究、空间偏好以及种间和种内相互作用提供密集的表面。这项研究的结果和发现有利于未来规划环境监测工作以及项目下的工作阶段,以尽量减少对彭福公园鹭鸟林的潜在环境影响。
摘要 从大脑活动重建复杂而动态的视觉感知仍然是机器学习应用于神经科学的一大挑战。在这里,我们介绍了一种从非常大的单参与者功能性磁共振数据重建自然图像和视频的新方法,该方法利用了图像到图像转换网络的最新成功。这是通过利用从整个视觉系统的视网膜主题映射中获得的空间信息来实现的。更具体地说,我们首先根据其对应的感受野位置确定特定感兴趣区域中的每个体素在视野中代表什么位置。然后,将视野上大脑活动的 2D 图像表示传递给完全卷积的图像到图像网络,该网络经过训练以使用带有对抗性正则化的 VGG 特征损失恢复原始刺激。在我们的实验中,我们表明我们的方法比现有的视频重建技术有了显着的改进。
约克大学人工智能哲学 AP/PHIL/COGS 3750 3.00(Lect 01)2021 年冬季课程类型:讲座 | 星期四,下午 2:30(EST),3 小时 | 地点:Zoom | Cat# M73K01(AP COGS)/ W55M01(AP PHIL)重要日期:1 月 11 日(学期开始)、1 月 14 日(第一堂课)、2 月 13-19 日(冬季阅读周)、3 月 12 日(不获得成绩的最后一天退课)、4 月 8 日(最后一堂课)、4 月 12 日(冬季课程结束)、4 月 13 日(本学期提交作业的最后一天)、4 月 14-28 日(冬季考试期)课程讲师:Michael Barkasi(barkasi@yorku.ca)办公时间:通过 Zoom,星期四,下午 1:30-2:30(EST);可能的其他时间。需要预约(请发送电子邮件)。先决条件:AP/PHIL/COGS 2160 3.00 或 AP/PHIL 2240 3.00 之一 参加课程的技术要求:eClass 访问和 Zoom。强烈建议学生参加周四的 Zoom 讲座并积极参与麦克风和视频,但这不是强制性的。(如果愿意,参加 Zoom 会议的学生可以关闭摄像头并将麦克风静音。) 讲座将被录制并通过 eClass 提供给那些不能参加的学生。(与学生的讨论时间不会被记录,因此不参加 Zoom 会议的学生将错过课堂的这一部分。) 以下是一些有用的学生计算信息、资源和帮助链接:Moodle 学生指南 | Zoom@YorkU 最佳实践 | Zoom@YorkU 用户参考指南 | 学生计算网站 | 约克大学电子学习学生指南 时间和地点:这是一门远程授课的课程。每周四将在预定的 2:30-5:30pm(EST)时间段通过 Zoom 进行讲座和讨论。重复 Zoom 会议的链接将发布到 eClass,为无法现场参加的人提供讲座(但不提供讨论)的录音。虽然不需要参加正常的 Zoom 会议,但你需要在第 8 周(3 月 4 日)星期四下午 2:30-5:30(EST)时间段参加期中考试;你还需要在期末考试期间分配给课程的时间段参加期末考试。请注意,这是一门依赖远程教学的课程。校园内不会有面对面的互动或活动。虚拟办公时间:通过 Zoom,星期四,下午 1:30-2:30(EST),或我们双方同意的时间。无论哪种情况都需要预约(请发送电子邮件设置预约并获取 Zoom 链接)。如果您有任何问题、意见或疑虑,请随时通过电子邮件联系我(课程主任)。
摘要 电脑游戏吸收并扩展了传统的技术和人工智能 (AI) 论述。此外,电脑游戏中的 AI 表现不仅包括叙事方面,还包括游戏机制。本文重点介绍这种 AI 表现与其他媒体形式的区别,以及如何在电脑游戏领域识别不同类型的 AI 表现。总体而言,AI 的表现使游戏玩法所暗示的特定方面和意识形态变得可见。从这个角度来看,概述了这些表现如何发挥作用,无论是作为对自我赋权幻想的支持还是作为对媒体决定的强调;此外,还强调了在这种背景下提供的文化功能和含义。
摘要 电脑游戏吸收并扩展了传统的技术和人工智能 (AI) 论述。此外,电脑游戏中的 AI 表现不仅包括叙事方面,还包括游戏机制。本文重点介绍这种 AI 表现与其他媒体形式的区别,以及如何在电脑游戏领域识别不同类型的 AI 表现。总体而言,AI 的表现使游戏玩法所暗示的特定方面和意识形态变得可见。从这个角度来看,概述了这些表现如何发挥作用,无论是作为对自我赋权幻想的支持还是作为对媒体决定的强调;此外,还强调了在这种背景下提供的文化功能和含义。
印度的电影、电视和在线视频服务行业(本报告中统称为“创意产业”)总收入约为 9.3 万亿印度卢比(133 亿美元),略高于该国媒体和娱乐 (M&E) 行业总收入的一半。它们的总产值为 11.5 万亿印度卢比(165 亿美元),雇用了 85 万(850,000)人。这是这些行业产生的直接影响。但它们的总体影响远不止于此。在之前的一份报告中,我们讨论了创意产业产生的总体影响与其直接影响不成比例——乘数效应。包括间接和诱导效应,我们估计这些行业的总产值高达 349000 亿印度卢比(499 亿美元),即直接总产值的 3 倍,并雇用多达 266 万(260 万人),即直接就业人数的 3.1 倍!除此之外,创意产业还以多种重要方式产生影响,而这些影响无法仅通过上述数字来体现。这些行业可以连接人们,跨越文化和政治鸿沟,充当身份和表达的源泉,并塑造态度和思维过程。它们是帮助国家融合、传递社会信息以及在全球舞台上展示印度文化和影响力的独特有力工具。印度拥有充满活力的电影、电视和在线视频服务行业,潜力无限。它是世界上最大的电影制作国,拥有世界上最大的 DTH 和第二大付费电视用户群。在线视频服务行业有望快速增长。在印度,屏幕尺寸超过 6 英寸的智能手机售价仅为 7,000 印度卢比(100 美元)。连接费用低廉,无线数据每 GB 平均价格为 7.0 印度卢比(0.1 美元),是迄今为止世界上最低的价格!这激发了人们对数据的无限需求,印度无线用户平均每月消耗 10.4 GB 的数据。数据使用量与视频消费密切相关,视频流服务数量的快速增长(从 2012 年的 9 个增加到 2019 年的 35 个以上)表明市场参与者看到了印度的巨大潜力。
不稳定状态会减少后续检索。7 此外,有人提出,在重新激活之后,记忆会再次进入不稳定状态,必须重新巩固为长期记忆。8 在这个再巩固过程中,记忆痕迹也容易受到干扰。Holmes 及其同事 1 提出,在记忆巩固或再巩固期间完成一项要求高的视觉空间任务,记忆痕迹会因为争夺巩固所需的认知资源而减弱。到目前为止,使用俄罗斯方块作为干预的研究主要集中在试图破坏创伤暴露后 6 小时内创伤记忆的巩固,1-3 或第二天创伤记忆的再巩固。8 然而,在创伤事件发生后直接玩电子游戏既不切实际,也是不可能的。
摘要。背景:本研究重点是开发上肢康复计划。为此,设计了一个基于稳态视觉诱发电位 (SSVEP) 触发的脑机接口 (BCI)-功能性电刺激 (FES) 的动作观察游戏,该游戏以闪烁的动作视频为特色。目的:特别是,通过将动作观察范式与基于 BCI 的 FES 相结合来研究游戏的协同效应。方法:在两种条件下对比 BCI-FES 系统:闪烁的动作视频和闪烁的噪声视频。为此,招募了 11 名年龄在 22-27 岁之间的右利手受试者。检查了对这两种情况的大脑激活差异。结果:结果表明,T3 和 P3 通道在动作视频中表现出 8-13 Hz 的 Mu 抑制比噪声视频更大。此外,与噪声视频相比,T4、C4 和 P4 通道对动作的增强高 beta(21-30 Hz)。最后,T4 表明与噪声视频相比,动作视频的低 beta(14-20 Hz)受到抑制。结论:基于闪烁动作视频的 BCI-FES 系统比基于闪烁噪声的系统对皮质激活产生了更大的协同效应。
人工智能可以重新编程新闻编辑室吗?自动化新闻中的信任、透明度和道德 计算机程序可以编写引人入胜的新闻故事吗?在路透社最近的一份技术趋势和预测报告中,接受调查的 200 名数字领导者、编辑和首席执行官中,78% 表示投资人工智能 (AI) 技术将有助于确保新闻业的未来 (Newman, 2018)。然而,探索这些新的报道方法,为那些已经在努力理解人类记者和计算工作之间复杂动态的人带来了一系列无法预见的道德问题。在新闻编辑室实施自动化叙事向记者提出了如何保持和鼓励报道的准确性和公正性以及对他们所服务的受众的透明度的问题。新闻编辑室中的人工智能已经从一个想法发展成为现实。1998 年,计算机科学家 Sung-Min Lee 预测人工智能将在新闻编辑室得到应用,届时“机器人代理”将与人类记者一起工作,有时甚至代替人类记者 (Latar, 2015)。2010 年,Narrative Science 成为第一家使用人工智能将数据转化为叙事文本的商业企业。Automated Insights 和其他公司紧随 Narrative Science 之后,通过自动化讲故事的方式将 Lee 的“机器人代理”带入新闻编辑室。虽然当今的新闻编辑室正在使用人工智能来简化各种流程,从跟踪突发新闻、收集和解释数据、核实在线内容,甚至创建聊天机器人来向用户推荐个性化内容,但自动生成文本和视频故事的能力促使整个行业转向自动化新闻,或“使用软件或算法自动生成新闻故事而无需人工干预的过程”(Graefe, 2016)。《福布斯》、《纽约时报》、《华盛顿邮报》、《ProPublica》和彭博社只是当今在新闻报道中使用人工智能的部分新闻编辑室。《华盛顿邮报》的“内部自动化叙事技术”Heliograf 只是新闻编辑室利用人工智能扩大其在体育和金融等严重依赖结构化数据的领域的报道的众多例子之一,“让记者专注于深入报道”(Gillespie,2017 年)。人工智能有可能让新闻编辑室和报摊的记者都变得更好。通过自动化,现在可以进行大量的新闻报道新闻智库 Polis 在其 2019 年新闻 AI 报告中透露,新闻编辑室使用人工智能的主要动机是“帮助公众应对新闻过载和错误信息的世界,并以便捷的方式将他们与与他们的生活相关、有用和有益的可靠内容联系起来”(Beckett,2019 年)。