从生成的通信中学习

UGA研究人员一直处于AI开发的最前沿。从今天的UGA出现了从产生的通信中学习的后。UGA研究人员一直处于AI开发的最前沿。从今天的UGA出现了从产生的通信中学习的后。

来源:UGA今日新闻

随着人工智能及其相关技术的发展,佐治亚大学的研究人员正在努力保持领先一步。格雷迪新闻与大众传播学院的最新研究表明,新兴技术带来的一些可能的风险和奖励。

格雷迪新闻与大众传播学院

当AI误解时

AI不是一门完美的科学。尽管它会随着时间的流逝而进行完善,但该技术必将犯错误 - 因此,在发生这种情况时需要制定计划。

广告和公共关系系的博士候选人 Wenqing Zhao在她的研究中发现,许多通信组织可能还没有完全准备解决这些错误。 Wenqing Zhao 研究 “ AI可能会有偏见,错误信息,缺乏透明度,隐私问题和版权问题。对于任何可能的威胁,为了组织中的每个人,该组织都应该意识到他们需要一些东西,”赵说。 Zhao调查了数百名沟通从业者,以了解AI出错时会发生什么。 AI错误需要动手解决方案 赵发现,缺乏危机计划归结为责任。随着AI生成的内容在命令链上引起了错误,没有人希望因不抓住它而负责。 “这来自一个称为许多手问题的模型;对于任何特殊的伤害,许多人都可以涉及到这一点,”赵说。 “但是,没有一个人可以分配这一责任。” 责任也不一定也必须去找主管。赵说,只要有一个明确的概述,谁会抓住诸如偏见,错误信息或侵犯隐私的事情,那就是一个开始。 “在组织中建立积极责任的文化非常重要,尤其是通过AI威胁或AI危机管理,”赵说。 技术中的透明度 当AI显示情绪时 Ja Kyung Seo

Wenqing Zhao在她的研究中发现,许多通信组织可能还没有完全准备解决这些错误。 Wenqing Zhao

研究

“ AI可能会有偏见,错误信息,缺乏透明度,隐私问题和版权问题。对于任何可能的威胁,为了组织中的每个人,该组织都应该意识到他们需要一些东西,”赵说。

Zhao调查了数百名沟通从业者,以了解AI出错时会发生什么。

AI错误需要动手解决方案

缺乏危机计划归结为责任。随着AI生成的内容在命令链上引起了错误,没有人希望因不抓住它而负责。

“这来自一个称为许多手问题的模型;对于任何特殊的伤害,许多人都可以涉及到这一点,”赵说。 “但是,没有一个人可以分配这一责任。”

责任也不一定也必须去找主管。赵说,只要有一个明确的概述,谁会抓住诸如偏见,错误信息或侵犯隐私的事情,那就是一个开始。

“在组织中建立积极责任的文化非常重要,尤其是通过AI威胁或AI危机管理,”赵说。

技术中的透明度

当AI显示情绪Ja Kyung SeoJa Kyung Seo