先前的研究提供了有价值的见解,以探索不同的方式来表征音乐音色,无论是定性或定量的,如下一节所述。然而,问题仍然在多大程度上可以可靠地表征音色,并在某种乐器(例如钢琴)中存在微妙的差异。因此,当前的研究旨在探索和发现定量指数,以精确表征钢琴音色。音色指数的精度将通过在工程和制药行业中使用的最新测量系统分析方法来验证,以确保钢琴音色测量系统的可靠性和可复制性。请注意,钢琴表演技术除其他因素外,还会影响钢琴产生的声音的音色(Bernays and Traube,2013,2014)。但是,这些因素不超出本研究的范围,因为如果没有足够精确的音色测量系统,音色的语义关联会遭受重大的解释变化(Reymore等,2023),并且对钢琴音色控制因子的分析类似于移动(和未确定)目标。一旦确定了精确的音色指数,它们就可以用来表征具有执行技术等各种因素产生的钢琴音色。
过去几年,人工神经网络架构的重大发展促进了自动音乐创作模型的广泛应用。然而,大多数现有系统都采用基于硬代码和预定义规则的算法生成结构,通常不包括交互式或即兴行为。我们提出了一种基于运动的音乐系统 MoMusic,作为 AI 实时音乐生成系统。MoMusic 具有部分随机谐波排序模型,该模型基于音调和弦进展的概率分析,通过音乐集合论进行数学抽象。该模型针对二维网格呈现,通过姿势识别机制产生结果声音。摄像头捕捉用户手指的运动和轨迹,创造出连贯的、部分即兴的和声进程。MoMusic 集成了多个音色音域,从钢琴等传统古典乐器到使用语音转换技术创建的新型“人声乐器”。我们的研究证明了 MoMusic 的互动性、激发音乐家灵感的能力以及使用各种音色音域生成连贯音乐材料的能力。MoMusic 的功能可以轻松扩展,以结合不同形式的姿势控制音色变换、节奏变换、动态变换甚至数字声音处理技术。
阿尔班·格哈特是当今最优秀的大提琴家之一,他将重返奥克兰与 APO 合作。他丰富的音色和卓越的艺术造诣将再次让我眼花缭乱!格哈特将演奏有史以来最受欢迎和最受喜爱的协奏曲之一,圣桑的《第一大提琴协奏曲》,随后是普罗科菲耶夫精彩的《第四交响曲》,这是我最期待的一场音乐会!
阿尔班·格哈特是当今最优秀的大提琴家之一,他将重返奥克兰,与 APO 合作。他丰富的音色和卓越的艺术造诣将再次让我眼花缭乱!格哈特将演奏有史以来最受欢迎和最受喜爱的协奏曲之一,圣桑的《第一大提琴协奏曲》,随后是普罗科菲耶夫精彩的《第四交响曲》,这是我最期待的一场音乐会!
自动生成与任意输入音轨适当匹配的音乐是一项具有挑战性的任务。我们提出了一种新颖的可控系统,用于生成单个词干以伴随任意长度的音乐混音。我们方法的核心是音频自动编码器,它可以有效地将音频波形样本压缩为可逆的潜在表示,以及一个条件潜在扩散模型,该模型将混音的潜在编码作为输入并生成相应词干的潜在编码。为了控制生成样本的音色,我们引入了一种技术,在扩散采样期间将潜在空间固定在用户提供的参考风格上。为了进一步提高音频质量,我们采用无分类器引导,以避免在生成无界潜在空间时在高引导强度下出现失真。我们在混音对和匹配低音词干的数据集上训练我们的模型。定量实验表明,给定输入混音,所提出的系统可以生成具有用户指定音色的低音线。我们的可控条件音频生成框架代表着在创建生成性人工智能工具以协助音乐家进行音乐创作方面迈出了重要一步。
进行了两个实验,以测试参与者因素(即音乐复合,工作记忆能力)和刺激因素(即声音持续时间,音色)在听力识别中使用快速的串行听觉表现范式在听力识别中的作用。参与者听取了从30到150毫秒不等的非常简短的声音流,并经过了对他们的能力,可以将其与不存在的目标声音区分开,从分散源中放置的varsouns声源中选择的目标声音。实验1A确定对刺激的短暂暴露(60至150毫秒)不一定与识别受损相对应。在实验1B中,我们发现证据表明,对st-muli的30毫秒暴露会严重损害单个听觉目标的识别,但是对语音和正弦音调目标的识别最少损害,这表明成功识别所需的下限可能低于语音和Sine音调目标30毫秒。至关重要的是,当控制音乐成熟的差异时,声音持续时间对识别的影响完全消失了。参与者的工作记忆能力似乎没有预测他们的识别表现。我们的行为结果扩展了面向研究的研究,以了解在时间限制下的简短音色的处理,暗示音乐的复杂性可能比以前想象的更大。这些结果还可以为未来的研究提供一个有效的假设,即,处理各种声音源的基本神经机制可能具有不同的速度约束。