AY 2023-24 IIT Jodhpur邀请申请入学硕士(通过研究)计划由脑科学与应用卓越中心(CBSA)从2023年7月开始的本学期开始的人工智能与数据科学学院提供。M.S. (通过研究)计划是CBSA的旗舰计划,该计划在脑启发的下一代AI的新和新兴领域及其在不同脑科学领域的应用。 This program aims to impart the students state-of-the-art knowledge and training to design brain-inspired Next-generation AI architectures with real-world and industry-oriented applications, e.g., building Cognitive Machines, language technology, computational vision, brain connectomes, language and speech, brain-computer interface, multisensory and multimodal experience, and neuromorphic computing. 将对学生进行培训,以理解和应用脑科学原理进行AI的发展。 脑科学本身正在通过合并新的新兴技术来开发创新的工具来理解大脑功能及其应用,从而改变了脑科学本身。 该研究计划旨在让您参与跨学科领域的最先进研究,包括在数据科学的横截面,计算建模,传感器技术和设计构建创新应用程序的接口。 通过此硕士 IIT Jodhpur在助手学校的(通过研究)计划有意识地绘制了一条新的途径,并计划重新定位,以成为这种新的人工智能和数据科学教育和研究类型的领先研究所。M.S.(通过研究)计划是CBSA的旗舰计划,该计划在脑启发的下一代AI的新和新兴领域及其在不同脑科学领域的应用。This program aims to impart the students state-of-the-art knowledge and training to design brain-inspired Next-generation AI architectures with real-world and industry-oriented applications, e.g., building Cognitive Machines, language technology, computational vision, brain connectomes, language and speech, brain-computer interface, multisensory and multimodal experience, and neuromorphic computing.将对学生进行培训,以理解和应用脑科学原理进行AI的发展。脑科学本身正在通过合并新的新兴技术来开发创新的工具来理解大脑功能及其应用,从而改变了脑科学本身。该研究计划旨在让您参与跨学科领域的最先进研究,包括在数据科学的横截面,计算建模,传感器技术和设计构建创新应用程序的接口。通过此硕士 IIT Jodhpur在助手学校的(通过研究)计划有意识地绘制了一条新的途径,并计划重新定位,以成为这种新的人工智能和数据科学教育和研究类型的领先研究所。通过此硕士(通过研究)计划有意识地绘制了一条新的途径,并计划重新定位,以成为这种新的人工智能和数据科学教育和研究类型的领先研究所。通过该计划,IIT Jodhpur的AI和数据科学学院将提供一个独特的机会,以在从脑科学到脑科学启发的软件和硬件设计等不同领域的应用程序和AI的新兴技术中进行研究。IIT Jodhpur由于其丰富的跨学科生态系统而被唯一地定位。目前该计划将在以下领域提供培训:1。以脑为灵感的下一代AI 2。大脑计算机接口3。神经形态计算和硬件设计4。计算神经科学和应用
I.的实现易于断层的通用量子计算机是一个巨大的挑战。在架构的每个级别,从硬件实现到量子软件,都需要克服困难的问题。在堆栈中间徘徊,量子错误纠正代码对硬件设计和软件编译都影响。,它们不仅在减轻噪声和错误操作方面发挥了重要作用,而且在制定协议以提取必要的资源将通用性授予错误纠正的量子计算机的必要资源[1]中发挥了重要作用[1]。因此,量子误差校正代码的研究和设计是在通用量子计算的途中要执行的主要任务之一。一类精心研究的量子错误校正代码是Calderbank-s-s-s-s-steane代码(CSS代码)[2],[3],它们是稳定器量子代码[4],[5]。CSS代码比一般稳定器代码的优点是它们与经典编码理论中已研究的线性代码的密切联系。可以通过组合两个二进制线性代码来构建CSS代码。大致来说,一个代码在Pauli X -Basis中执行奇偶校验检查,而另一个代码在Pauli Z -Basis中进行了奇偶校验检查。不能使用任何两个二进制线性代码:每个代码空间中的任何两对代码单词都必须具有重叠。基于几何,同源或代数结构[6] - [17]设计了几个CSS代码的家族,但是,可以实现哪些参数。因此,我们仅考虑除了能够保护量子信息外,量子错误纠正代码还必须允许某些机制处理编码的信息而无需提升保护。总是有可能发现某些操作在编码信息上实现所需的操作,但是这些操作可能会在系统中传播错误。
随着电子产品需求的不断增长,新型专用集成电路 (ASIC) 设计的开发周期也越来越短。为了满足这些较短的设计周期,硬件设计人员在设计中应用了 IP 模块的可重用性和模块化原则。带有集成处理器和通用互连的标准片上系统 (SoC) 架构大大减少了设计和验证工作量,并允许跨项目重复使用。然而,这带来了额外的复杂性,因为 ASIC 的验证还包括在集成处理器上执行的软件。为了提高可重用性,硬件 IP 模块通常用更高抽象级别的语言(例如 Chisel、System-RDL)编写。这些模块依靠编译器(类似于软件编译器)来生成 RTL 仿真和实现工具可读的 Verilog 源文件。此外,在系统级,可以使用 C++ 和 SystemC 对 SoC 进行建模和验证,这进一步凸显了软件编译的重要性。这些要求导致需要一个支持典型硬件流程和工具以及 C++、C 和汇编语言的软件编译和交叉编译的构建系统。现有的硬件构建系统被发现存在不足(见 II),特别是对软件编译(即 C++、C 和汇编语言)的支持极少甚至没有。因此,CERN 的微电子部门启动了一个名为 SoCMake [1] 的新构建系统的开发。SoCMake 最初是作为片上系统抗辐射生态系统 (SOCRATES) [14] 的一部分开发的,该系统可自动生成用于高能物理环境的基于 RISC-V 的容错 SoC,后来发展成为用于 SoC 生成的通用开源构建工具。
大脑计算机界面(BCIS)将大脑活动转化为数字命令,以与物理世界互动。该技术在几个应用领域具有巨大的潜力,从医疗应用到娱乐业,并为认知神经科学的基础研究创造了新的条件。当今的BCIS,仅对用户当前心理状态的原油在线分类,而对精神状态的更复杂的解码取决于耗时的offline数据分析。本文通过利用一组分析管道的改进来直接解决此限制,从而为下一代在线BCI铺平了道路。特别是我们引入了一个开放源研究框架,该框架具有模块化和可定制的硬件设计。此框架促进了人类在循环(HIL)模型培训和再训练,实时刺激控制,并使转移学习和云计算用于脑电图(EEG)数据的在线分类。刺激和研究人员的诊断。使用实验室流层标准和Websocket发送消息。实时信号处理和分类以及机器学习模型的培训,由开源Python包装时间频率促进。框架在Linux,MacOS和Windows上运行。虽然在线分析是BCI-HIL框架的主要目标,但可以通过MNE,EEGLAB或FIELDTRIP(例如Python,Matlab和Julia)对EEG数据进行OfflINE分析。本文描述并讨论了人类在BCI研究平台的理想特性。BCI-HIL框架是根据MIT许可发布的,其示例为:bci.lu.se/bci-hil(或at:github.com/bci-hil/bci-hil)。
∗ 通讯作者电子邮件地址:hugo.bruneliere@imt-atlantique.fr(Hugo Bruneliere)、{vittoriano.muttillo,romina.eramo}@univaq.it(Vittoriano Muttillo、Romina Eramo)、luca.berardinelli@jku。 (Luca Berardinelli)、agomezlla@uoc.edu (Abel G´omez)、{alessandra.bagnato,andrey.sadovykh}@softame.fr (Alessandra Bagnato、Andrey Sadovykh)、antonio.cicchetti@mdu.se (Antonio Cicchetti)
超维计算 (HDC) 是一种新兴的计算框架,其灵感来自大脑,它对具有数千个维度的向量进行操作以模拟认知。与对数字进行操作的传统计算框架不同,HDC 与大脑一样,使用高维随机向量,并且能够进行一次性学习。HDC 基于一组定义明确的算术运算,具有很强的错误恢复能力。HDC 的核心操作以批量逐位方式操纵 HD 向量,提供了许多利用并行性的机会。不幸的是,在传统的冯·诺依曼架构中,HD 向量在处理器和内存之间的连续移动会使认知任务变得非常缓慢且耗能。硬件加速器只能略微改善相关指标。相比之下,即使是内存中 HDC 框架的部分实现也可以提供相当大的性能/能量增益,正如之前使用忆阻器的工作所证明的那样。本文介绍了一种基于赛道内存 (RTM) 的架构,用于在内存中执行和加速整个 HDC 框架。所提出的解决方案利用 RTM 中跨多个域的读取操作(称为横向读取 (TR))来实现异或 (XOR) 和加法运算,从而只需极少的额外 CMOS 电路。为了最大限度地减少 CMOS 电路开销,提出了一种基于 RTM 纳米线的计数机制。以语言识别为示例工作负载,所提出的 RTM HDC 系统与最先进的内存实现相比,将能耗降低了 8.6 倍。与使用 FPGA 实现的专用硬件设计相比,基于 RTM 的 HDC 处理在整体运行时间和能耗方面分别实现了 7.8 倍和 5.3 倍的提升。
摘要:基于主动式脑机接口 (BMI) 控制边缘设备的高级认知功能预测是一项改善残疾人生活质量的新兴技术。然而,由于神经元的非平稳性质,维持多单元神经记录的稳定性变得困难,并且会影响主动式 BMI 控制的整体性能。因此,需要定期重新校准以重新训练神经网络解码器以进行主动控制。然而,重新训练可能会导致网络参数(例如网络拓扑)发生变化。就用于实时和低功耗处理的神经解码器的硬件实现而言,修改或重新设计硬件加速器需要时间。因此,处理低功耗硬件设计的工程变更需要大量的人力资源和时间。为了应对这一设计挑战,这项工作提出了 AHEAD:一种用于主动式 BMI 边缘设备中多层感知器 (MLP) 神经网络硬件生成的自动整体能量感知设计方法。通过对主动式 BMI 设计流程进行全面分析,该方法明智地利用了智能位宽识别 (BWID) 和可配置硬件生成,它们自主集成以生成低功耗硬件解码器。所提出的 AHEAD 方法从训练过的 MLP 参数和黄金数据集开始,并在性能、功耗和面积 (PPA) 方面产生高效的硬件设计,同时将准确性损失降至最低。结果表明,与现场可编程门阵列 (FPGA) 上的浮点和半浮点设计相比,所提出的方法性能提高了 4 倍,功耗降低了 3 倍,面积资源减少了 5 倍,并且具有精确的准确性,这使其成为一种有前途的主动式 BMI 边缘设备设计方法。
对复杂动物行为的自动检测仍然是神经科学的挑战。developments具有大量高级自动化行为检测,并允许高通量临床前和机械研究。需要进行集成的硬件和软件解决方案,以促进在行为神经基因的领域采用这些进步,尤其是对于非计算实验室而言。我们使用开放式领域发表了一系列论文,以注释复杂行为,例如修饰,姿势和步态以及更高层次的结构,例如生物年龄和痛苦。在这里,我们向社区介绍了综合的啮齿动物表型平台,JAX动物行为系统(JABS),以进行数据获取,基于机器学习的行为注释和分类,分类者共享和遗传分析。JABS数据采集模块(JABS-DA)允许统一数据收集,其3D硬件设计和软件的组合用于实时监视和视频数据收集。jabs-Active学习模块(JABS-AL)允许行为注释,分类训练和验证。我们介绍了一个基于图形的新型框架(Ethograph),该框架能够对jabs-al分类器的有效比较。jabs-分析和集成模块(jabs-ai),一种Web应用程序,促进用户部署并共享对jabs培训的任何分类器,从而减少了行为注释所需的精力。这可以将遗传学用作适当行为分类器选择的指南。它支持训练有素的刺戳分类器和下游遗传分析(遗传力和遗传相关性)的推断和共享,这些数据集涉及168个策划的数据集,这些数据集涉及我们与这项研究一起公开释放的168个小鼠菌株。此开源工具是一个生态系统,它允许神经科学和遗传学社区共享高级行为分析,并减少进入该新领域的障碍。
超维计算 (HDC) 是一种新兴的计算框架,其灵感来自大脑,它对具有数千个维度的向量进行操作以模拟认知。与对数字进行操作的传统计算框架不同,HDC 与大脑一样,使用高维随机向量,并且能够进行一次性学习。HDC 基于一组定义明确的算术运算,具有很强的错误恢复能力。HDC 的核心操作以批量逐位方式操纵 HD 向量,提供了许多利用并行性的机会。不幸的是,在传统的冯·诺依曼架构中,HD 向量在处理器和内存之间的连续移动会使认知任务变得非常缓慢且耗能。硬件加速器只能略微改善相关指标。相比之下,即使是内存中 HDC 框架的部分实现也可以提供相当大的性能/能量增益,正如先前使用忆阻器的工作所证明的那样。本文介绍了一种基于赛道内存 (RTM) 的架构,用于在内存中执行和加速整个 HDC 框架。所提出的解决方案利用 RTM 中跨多个域的读取操作(称为横向读取 (TR))来实现异或 (XOR) 和加法运算,从而只需要极少的额外 CMOS 电路。为了最大限度地减少 CMOS 电路开销,提出了一种基于 RTM 纳米线的计数机制。以语言识别为示例工作负载,与最先进的内存实现相比,所提出的 RTM HDC 系统将能耗降低了 8.6 倍。与使用 FPGA 实现的专用硬件设计相比,基于 RTM 的 HDC 处理在整体运行时间和能耗方面分别展示了 7.8 倍和 5.3 倍的改进。
Course ID and Title: [EE508, Hardware Foundations of Machine Learning ] Units: 4 Term—Day—Time: [Spring 2025] — [Lecture Saturday 12:30-4:10pm – Discussion: TBD] Location: TBD Instructor: Arash Saifhashemi Office: TBD Office Hours: TBD Contact Info: saifhash@usc.edu Teaching Assistant: TBD Office: TBD Office Hours: TBD Contact信息:TBD目录描述ML内核:卷积,变压器,嵌入。加速器:GPU,输入/重量/输出固定加速器。分布式ML:数据,模型和混合动力并行。私人ML:同态加密和多方计算加速器。课程描述本课程为有兴趣建筑机器学习(ML)硬件和系统的ECE(电气和计算机工程)学生提供了独特的观点,例如图形处理单元(GPU)和加速器,以及设计可扩展的ML系统,例如基于云的ML ML培训和推动力。本课程向学生介绍了ML模型中通常看到的计算和内存访问内核,包括卷积,变形金刚和嵌入表。学生将学习如何将卷积转换为矩阵操作以及如何加速这些矩阵操作在硬件加速器上。它为ML加速器提供了3种不同的硬件设计范例:输入,输出和权重固定加速器。它对市场上ML硬件加速器(例如GPU和Tensor处理单元(TPU))提供了深入的了解。该课程还介绍了如何使用模型,数据和混合并行性等并行化方法扩展ML系统。该课程将使学生能够了解机器学习中的隐私基础知识,以及如何使用同型加密和多方计算来加速私人ML系统。