详细内容或原文请订阅后点击阅览
机器人 Shimi 学会了理解人们并通过唱歌来回应他们(+视频)
人机交互很容易失败,而且很难建立良好的融洽关系。 R2-D2 和 Kuri 等机器人经过验证的方法之一是消除语言问题 - 您可以用各种“嘟嘟声”和“咯咯声”来凑合(至少在情感层面上),而不是使用真实的单词进行交流。
来源:Robogeek新闻频道(关于机器人技术的俄罗斯与世界新闻)人机交互很容易失败,而且很难建立良好的融洽关系。 R2-D2 和 Kuri 等机器人经过验证的方法之一是消除语言问题 - 您可以用各种“嘟嘟声”和“咯咯声”来凑合(至少在情感层面上),而不是使用真实的单词进行交流。
因为看过《星球大战》的人都知道,R2-D2 确实发出了很多经过精心设计的富有表现力的声音。
大多数现代机器人都没有专业的声音设计团队,因此问题就变成了如何教机器人在正确的时间发出正确的声音。吉尔·温伯格和他的学生在佐治亚理工学院的音乐技术中心拥有丰富的机器人工作经验。他们使用一种新的深度学习技术来教他们的音乐机器人 Shimi 了解人类情感和通过音乐进行交流的基础知识。
Shimi 自 2012 年起就为人所知,最初被编程为播放音乐和一种舞蹈。训练 Shimi 识别人类情绪并做出反应要困难得多。事实上,Shimi 不使用语言,这使得他无法给出有用和愚蠢的建议。
为了教会Shimi有效地利用声音、语气和动作进行即兴创作,需要用大量的数据来训练他。为了改进 Shimi 的行为,深度神经网络使用了以下条件:
- 10,000个文件,来自15位即兴演奏的音乐家,响应不同的情感需求;300,000个演奏不同音符的乐器样本,为艺术朗诵增添音乐表现力;现存最稀有的语言之一——几乎绝迹的澳大利亚原住民语言,由28个音素组成。