Loading...
机构名称:
¥ 1.0

摘要:本文通常关注生成AI中的信任和偏见问题,尤其是基于大语言模型的聊天机器人(例如chatgpt)。讨论认为,跨文化传播学者必须做更多的事情,以更好地理解生成的AI和更特殊的语言模型,因为这些技术以表面上公正的方式产生和传播了话语,从而广泛地假设机器是机器是社会的客观资源,以了解社会的重要资源,以了解重要的种族主义和诸如种族主义的重要资源。因此,迫切需要了解这种技术如何处理跨文化交流的主题和主题的方式如何信任和偏见。审查社会利用AI和大型语言模型来执行重要的社会行为和实践的方式,例如教学和学习历史或政治问题。

对生成AI和大型语言模型的信任和偏见

对生成AI和大型语言模型的信任和偏见PDF文件第1页

对生成AI和大型语言模型的信任和偏见PDF文件第2页

对生成AI和大型语言模型的信任和偏见PDF文件第3页

对生成AI和大型语言模型的信任和偏见PDF文件第4页

对生成AI和大型语言模型的信任和偏见PDF文件第5页

相关文件推荐

2023 年
¥1.0