Loading...
机构名称:
¥ 1.0

现代 NLP 模型正在成为比其前辈更好的对话代理。循环神经网络 (RNN) 和长短期记忆 (LSTM) 功能使代理能够更好地存储和使用有关语义内容的信息,这一趋势在 Transformer 模型中变得更加明显。大型语言模型 (LLM)(例如 OpenAI 的 GPT-3)已经众所周知能够构建和遵循叙述,这使系统能够随时采用角色,对其进行调整并参与对话故事。然而,对 GPT-3 的实际实验表明,这些现代 NLP 系统存在一个反复出现的问题,即它们可能会“卡在”叙述中,以至于进一步的对话、提示执行或命令变得徒劳无功。这里将其称为“锁定问题”,并通过实验案例报告进行了举例说明,然后介绍了伴随此问题的实际和社会问题。

“人工智能锁定问题”:现代 NLP 的社会问题

“人工智能锁定问题”:现代 NLP 的社会问题PDF文件第1页

“人工智能锁定问题”:现代 NLP 的社会问题PDF文件第2页

“人工智能锁定问题”:现代 NLP 的社会问题PDF文件第3页

“人工智能锁定问题”:现代 NLP 的社会问题PDF文件第4页

“人工智能锁定问题”:现代 NLP 的社会问题PDF文件第5页

相关文件推荐

2022 年
¥1.0
2022 年
¥1.0
2020 年
¥1.0
2024 年
¥6.0
2022 年
¥1.0