摘要。自 2015 年以来,商业手势界面扩大了研究人员和艺术家使用新型肌电图 (EMG) 生物特征数据的范围。EMG 数据可测量肌肉幅度,并使我们能够通过与数字媒体进行自然手势交互来增强人机交互 (HCI)。虚拟现实 (VR) 是一种沉浸式技术,能够模拟现实世界及其抽象。然而,当前的商业 VR 技术不具备处理和使用生物特征信息的能力。与当前商业 VR 设备中使用光学传感器进行手势识别相比,在 VR 中使用生物特征识别技术可以更好地描述手势细节并使用复杂的自定义手势,例如器乐演奏中的手势。然而,EMG 数据很复杂,必须使用机器学习来使用它。本研究使用 Myo 臂带对 Wekinator 中的四种自定义手势进行分类,并观察它们的预测准确性和表示(包括或省略信号开始)以在 VR 中创作音乐。结果表明,根据手势表示类型,特定的回归和分类模型在对 VR 中高级音乐 HCI 的四种音乐手势进行分类时最为准确。我们应用并记录了我们的结果,表明 EMG 生物识别技术有望成为未来 VR 中交互式音乐创作系统的良方。
舞蹈机器人领域吸引了众多领域的关注。例如,索尼推出了一款名为 QRIO 的人形机器人(Geppert 2004),它可以通过模仿人类的舞蹈以高度协调的方式与多个单元一起跳舞。Nakaoka 等人探索了一种动作捕捉系统来教机器人 HRP-2 跳日本传统民间舞蹈(Nakaoka 等人 2005)。尽管之前的系统取得了成功,但它们通常要么局限于一组预先定义的动作(伴随着音乐),要么根据外部刺激表现出很小的变化。为了提高舞蹈的变化性,Bi 等人提出让有腿的机器人以多样化的方式与音乐同步跳舞(Bi 等人 2018)。他们根据音乐的节拍从舞蹈动作库中挑选动作,创作了一种舞蹈编排。舞蹈动作包括各种踏步和基本动作。从库中挑选动作的过程由马尔可夫链定义,它取决于先前挑选的舞蹈动作和当前音乐节奏。在那些基于概率图模型的方法中,由于概率模型在表示舞蹈动作之间的逻辑关系方面的局限性,通常会选择与先前动作不合理的动作。在本演示中,我们设计了一个名为 Plan2Dance 的系统,以基于音乐创作舞蹈编排。通过考虑动作的时间要求,基于基本舞蹈动作的关系构建了一组动作模型(以 PDDL(Fox and Long 2003)语言的形式)。
摘要 近年来,一些艺术家开始使用人工智能领域的工具和软件来创作艺术品。关于这个主题最著名的合作涉及视觉艺术、绘画、情节写作和音乐创作领域,但人工智能在戏剧表演中也有一些实验性用途。在这里,我们提出了一个当代戏剧作品的理论框架,其中人工智能成为舞台表演不可或缺的一部分。我们研究人工智能作为一种非确定性元素的相关性,它促进了即兴输出,其中舞台表演意味着影响戏剧创作并定义特殊艺术方法的独立算法。对 13 件作品进行横截面分析,以分析最新的应用并提供全面的分类。具体而言,该框架涉及艺术实践的两个主要阶段:1)算法的初步设置; 2)它们在舞台上的功能和表现。前者涉及数据集定义和训练过程,并强调作者在构建软件以进行进一步的舞台表演方面的观点;提供了算法架构的描述,以深入研究一些实现。后者与戏剧概念中对人工智能的场景诠释有关;场面调度的例子被认为是描述软件与人类代理关系的作用。该分析提出了一个相当广泛和通用的初步模型,可用于艺术和学术目的,可以扩展到人工智能的未来应用。关键词 1 人工智能;算法剧场;中间表演
1.**生成对抗网络 (GAN)**:由两个相互竞争的神经网络组成——一个生成器和一个鉴别器。生成器试图生成令人信服的数据实例,而鉴别器则评估它们的真实性。随着时间的推移,这种对抗过程有助于生成器创建高度逼真的输出。2.**变分自动编码器 (VAE)**:它们将神经网络与概率方法相结合,以对数据进行编码和解码。VAE 特别适用于生成作为输入数据变体的新数据点。3.**Transformer 模型**:在自然语言处理领域尤为突出。像 OpenAI 的 GPT-3(生成式预训练 Transformer 3)这样的模型可以根据输入提示生成连贯且符合上下文的文本。**生成式 AI 的应用:** 1.**文本生成**:生成文章、诗歌、问题答案甚至计算机代码。2.**图像创建和编辑**:制作逼真的图像或转换现有图像(例如,将草图变成详细的图片)。3.**音乐创作**:创作各种风格的新音乐作品。4.**合成数据生成**:在真实数据稀缺或获取成本高昂时,生成有用的数据集以训练机器学习模型。5.**创意产业**:协助艺术家、作家和设计师集思广益并开发新概念。生成式人工智能不断发展,不断突破机器创造的界限,并对娱乐、医学和研究等各个领域产生广泛影响。
tittle:音乐信号的模型:表示,学习与生成摘要:低级音频表示和高级表示学习是音乐分析和综合的核心。因此,演讲将介入索尼CSL在音频表示方面的一些以前的作品,涵盖了不同的概念和用例。学习一阶和二阶基础函数以获得所需的不变,并研究了为生成,高级表示的自我监督学习和音频编解码器的低级音频表示。最后,将讨论音乐音频综合,从gan到潜在的扩散,再到连续自回旋模型的最新进步。bio:斯特凡·拉特纳(Stefan Lattner)担任索尼CSL巴黎音乐团队的研究员领导者,他专注于音乐制作,音乐信息检索和代表性学习的生成AI。在奥地利的维也纳人工智能研究所和计算感知研究所林兹(Linz)的研究所研究之后,他于2019年在奥地利林茨的约翰内斯开普勒大学(JKU)获得博士学位。他的研究以音乐结构的建模为中心,包括转换学习和计算相对音调感知。他目前的兴趣包括音乐创作,现场演出和音乐中信息理论的人力计算机互动。他专门研究潜在的扩散,自我监督的学习,生成序列模型,计算短期记忆和人类感知模型。
越来越多的证据表明,音乐对身心健康都有好处,包括改善心血管健康、减少老年人群痴呆症病例以及改善一般心理健康指标(如减轻压力)。在这里,我们描述了通过人工智能驱动的音乐生成来解决一般心理健康(焦虑、减轻压力)的简短案例研究。积极聆听和创作音乐活动(尤其是对于高危年龄组)尤其有益,音乐疗法的实践已被证明对广泛年龄范围内的一系列用例都有帮助。然而,在获得专业知识、材料和成本方面,音乐创作的机会可能被限制。此外,使用现有音乐来实现功能性结果(例如上面建议的针对性改善身体和心理健康指标)可能会受到重复和随后对现有材料过度熟悉的问题的阻碍。在本文中,我们描述了机器学习方法,该方法通过两个案例研究中的生物生理测量来创建功能性音乐,目标情绪状态位于笛卡尔情感空间(一个维度的情绪空间,其点范围从放松到恐惧)的两端。皮肤电反应被用作心理唤醒的标志和情绪状态的估计,用作机器学习算法训练中的控制信号。该算法使用感知音乐特征相似性模型,创建非线性时间序列的音乐特征以“即时”进行声音合成。我们发现熟悉度和感知到的情绪反应之间存在相互作用。我们还报告了对生成材料的后续心理测量评估,并考虑了这些技术以及类似的技术如何用于一系列功能性音乐生成任务,例如在交互式媒体或视频游戏中的非线性音轨。
摘要自2010年代初期引入以来,音乐流媒体转变为行业。流媒体既有粉丝又有批评家。最著名的批评家之一是超级巨星泰勒·斯威夫特(Taylor Swift),他质疑Streaming充分补偿参与音乐创作的人的能力。我的分析承认她的批评,并专门研究流媒体服务如何影响行业中的所有参与者。流媒体最初在整个音乐行业中降低了利润,但该行业已经调整并从这种新的音乐消费模式中获得了回报。流媒体服务通过减少盗版,增加音乐发现并吸引消费者进入音乐市场的其他领域,从而为音乐行业中的所有参与者带来好处。I.介绍从参加现场音乐表演到收听唱片,录音带,CD和数字文件,人们对音乐的消费已经发展。现在数字音乐和流媒体服务主导了市场。数字音乐的兴起是迄今为止该行业最重大的变化之一。数字音乐技术使消费者以一种低廉的价格访问数百万首歌,并以一种从未有可能的方式访问一个位置。流的采用已得到不同程度的接受程度。流行巨星泰勒·斯威夫特(Taylor Swift)过去直言不讳地反对流媒体服务,批评他们支付的艺术家的低价。Swift认为,流媒体服务不会创建流媒体模型中音乐价格代表其价值的行业。流媒体在我探讨了Swift关于流媒体的理论,发现流媒体为市场上的所有参与者提供了好处。
在介绍人工智能在创造力领域的新领域的文章中,人工智能被描述为对“创造力升级”的贡献,即“任何人都可以写出莎士比亚级别的作品,与巴赫一起谱曲,并以梵高的风格作画”[9]。世界经济论坛 [5] 等世界知名机构也发表了关于人工智能对创意产业影响的报告,详细说明了人工智能将如何慢慢完成日益复杂的创造性任务,而这些任务此前只能由人类完成。然而,这种说法具有误导性,因为它没有承认自动化技术发挥作用所需的人力。这些项目的驱动假设是,创造性知识可以被算法封装,并且通过使用正确的算法,艺术专业知识可以而且将自然而然地涌现。这种观点可以从 SonyCSL 的 FlowComposer 等项目中看出。该系统可以自动生成旋律,以“消除”音乐创作“耗时过程”带来的“障碍”,最终导致“新想法的涌现”[6]。因此,这些人工智能驱动的创意项目所宣传的叙事往往凸显了艺术媒介的技术奇迹(例如机器学习算法),而掩盖了制作、破解和调整算法以使其适用于定制艺术环境所需的劳动。实际上,人工智能艺术通常是构建和策划复杂相互作用的结果,不易分离成各个阶段或组成部分。在本文中,我们打算批判性地讨论随着艺术家将人工智能纳入他们的创作过程中,创意和艺术领域艺术创作叙事的转变。为此,我们报告了最近一项研究项目 [ 2 ] 的发现,该项目旨在更好地理解艺术家在所谓的 AI 艺术运动背景下对 AI 的实践。我们采访了五位艺术家,了解他们构思作品的方式、他们在创作艺术品中所扮演的角色,以及艺术品在他们艺术运动的社会文化结构中的接受程度。我们打算在这里报告有助于研讨会主题的选定发现。
人工智能 (AI) 在音乐领域能做什么和不能做什么是音乐研究人员和人工智能专家都感兴趣的重要话题之一。本研究在人工智能技术在音乐创作中日益重要的作用及其对创作过程的影响的背景下提供了重要的分析。它通过将人工智能定位为作曲家创造力的补充工具并增强对文化适应过程的理解,为文献做出了贡献。该研究旨在确定人工智能和作曲家作品之间的感知差异,研究这些差异的音乐和文化基础,并揭示影响听众体验的因素。在研究设计中,采用了混合方法,结合了定性和定量研究方法。在定量阶段,采用双盲实验设计,以确保参与者公正地评价作曲家和人工智能作品。在定性阶段,收集参与者的意见。参与者是 10 名年龄在 19 至 25 岁之间的人,具有不同的文化和教育背景;6 人接受过正规音乐教育,4 人是普通听众。数据收集工具包括结构化访谈表和音乐作品感知因素评估量表。在研究过程中,每位参与者在 20 分钟的标准化聆听环节中评估了两部人工智能和两部作曲家作品。所有聆听环节均使用专业音频设备进行。分析显示,作曲家作品在所有类别中的得分明显高于人工智能作品(p <.05)。观察到了显著的差异,特别是在情感深度(X 作曲家 = 4.6,X AI = 3.1)和记忆性(X 作曲家 = 4.4,X AI = 3.2)类别中。研究得出结论,作曲家作品在情感深度、结构连贯性和文化共鸣方面比人工智能作品更有效。此外,文化背景和音乐教育成为影响感知差异的重要因素。未来的研究应扩大参与者范围并结合神经认知数据,以促进对感知机制的更深入了解。此外,音乐人工智能系统的发展应包括融合基于Transformer和RNN的高级学习模型、实现传统音乐理论原理、增强情感表达能力、提高文化适应能力、完善实时交互机制等。
Sourav Verma DOI:https://doi.org/10.22271/allresearch.2021.v7.i2e.8286 摘要 已经开发了几种使用人工智能制作音乐的音乐软件程序。与它在其他领域的应用一样,在这种情况下,人工智能也模拟了心理任务。一个突出的特点是人工智能算法能够根据获得的信息进行学习,例如计算机伴奏技术,它能够聆听和跟随人类表演者,从而能够同步表演。人工智能还推动了所谓的交互式作曲技术,其中计算机根据现场音乐家的演奏创作音乐。音乐还有其他几种人工智能应用,不仅涵盖音乐创作、制作和表演,还涵盖音乐的营销和消费方式。除了使用人工智能制作音乐的程序外,还开发了几种音乐播放器程序,使用语音识别和自然语言处理技术进行音乐语音控制。关键词:谷歌洋红色。 Melodrive spotify brain FM 简介 人工智能 人工智能(AI)是计算机程序或机器以类似于人类的方式思考和学习的能力。它能够在一定程度上模拟人类智能,可以执行不同的任务和解决问题。 “人工智能”一词最早出现在1956年美国达特茅斯会议期间,但由于数据量的增加、算法的先进以及计算能力和存储的改进,人工智能技术和应用如今已变得更加流行和强大。 众所周知,人工智能研究已经影响了许多主要行业,而音乐产业当然是其中之一。 人工智能在音乐领域的简史 1# 1951年,英国数学家阿兰·图灵首次创作了计算机生成的音乐。艾伦·图灵是一位计算机科学家、哲学家和密码学家,在破解纳粹的恩尼格玛密码中发挥了关键作用。这段录音是 69 年前由英国广播公司 (BBC) 的一个室外广播部门在英国曼彻斯特的计算机实验室录制的。这台用来生成旋律的机器占据了实验室一楼的大部分空间,是由 A. 图灵亲自建造的。它创作了几首旋律,包括“上帝保佑国王”和“咩,咩黑羊”。虽然图灵在计算机中编写了第一个音符,但他对将它们串成曲调不感兴趣,所以这项工作由一位名叫克里斯托弗·斯特雷奇的学校老师完成。2# 1957 年,伊利诺伊大学香槟分校的作曲家 Lejaren Hiller 和数学家 Leonard Isaacson 编写了 ILLIAC I (伊利诺伊自动计算机),这是第一台完全由美国教育机构建造和拥有的计算机,生成作曲素材,创作出完全由人工智能编写的音乐作品——《伊利亚克弦乐四重奏组曲》。3#1960年,俄罗斯研究员R.Kh.扎里波夫发表了全球第一篇利用URAL-1计算机进行算法作曲的论文——《音乐作曲过程的算法描述》。