Loading...
机构名称:
¥ 5.0

摘要。诸如 ChatGPT 之类的人工智能 (AI) 系统现在可以大规模地生成令人信服的人类语音。人们很容易问这种人工智能生成的内容是否“破坏”了法律。我们认为,这是一个错误的问题。它将法律描述为本质上是被动的,而不是主动的,并且未能揭示在法律的一个领域看似“破坏”的事情在另一个领域却是正常的。我们挑战技术本质上破坏法律的流行观念,而是提出法律和技术在反映社会优先事项和政治权力的动态相互作用中共同构建。本文反而部署并阐述了“技术的法律构建”方法。通过消除技术决定论的障碍并进行技术的法律构建,法律学者和政策制定者可以更有效地确保人工智能系统融入社会符合关键价值观和法律原则。在我们进行技术的法律构建时,包括研究法律的目标、价值观和制度如何构成对新技术用途的法律意义。例如,第一修正案主要通过法院系统,朝着许多理论目标来规范“言论”和“说话者”。这导致了一系列特殊的难题,例如人工智能系统不是具有人类意图的人类说话者。但法律的其他领域对人工智能系统的构建方式却大不相同。内容审核法规范通信平台和网络,以平衡危害与言论自由和创新;风险监管越来越多地用于监管人工智能系统,它规范有风险的复杂系统,以减轻身体和尊严伤害;消费者保护法规范企业和消费者,以维护公平有效的市场。在人工智能的其他这些法律构建中,人工智能缺乏人类意图都不是问题。通过逐一分析每个例子,本文旨在展示从技术的法律构建角度看待人工智能生成内容的好处,而不是询问该技术是否破坏了法律。我们还旨在让政策制定者和学者相信该方法的好处:它描述准确,能提供具体的政策启示,并且在实践中可以为政策制定者和学者提供深刻的赋权。人工智能系统在某种抽象意义上不会破坏法律。在以价值观为导向而非以技术为导向的技术政策方法下,法律可以做的远不止反应。

构建人工智能语音

构建人工智能语音PDF文件第1页

构建人工智能语音PDF文件第2页

构建人工智能语音PDF文件第3页

构建人工智能语音PDF文件第4页

构建人工智能语音PDF文件第5页