4.1 合理选择研究方法和途径 49 4.2 话语分析 50 4.3 生成数据 51 4.3.1 书面话语 52 4.3.2 口头话语 54 4.3.3 开展首次实地工作 54 4.4 数据分析 55 4.4.1 操作框架 55 4.4.2 管理收集到的信息 57 4.4.3 编码结构的开发 57 4.4.3.1 编码 58 4.4.3.2 分类、整合主题和解释数据 59 4.4.4 收集到的数据分析 59 4.4.4.1 对 2000 年和 2004 年国际民航组织审计报告的分析 62 4.4.4.2 2007 年和 2009 年国际民航组织 CSA 审计 64 4.4.4.3 NTSC 调查报告分析 66 4.4.4.4 媒体文章分析 72 4.5 修订模型 78 4.5.1 从第一次实地工作研究中得出的发现 78 4.5.2 阐述假设 82 4.5.3 构建访谈问题 83 4.6 总结 84
对人工智能(AI)及其潜在存在风险的关注引起了极大的关注,诸如Geoffrey Hinton和Dennis Hassabis之类的数字提倡对灾难性结果进行强大的保障措施。尼克·博斯特罗姆(Nick Bostrom)和麦克斯·蒂格马克(Max Tegmark)等知名学者通过探索超智能AI的长期影响进一步推动了话语。然而,这种存在的风险叙事面临批评,特别是在流行媒体中,诸如Timnit Gebru,Melanie Mitchell和Nick Clegg之类的学者认为,除其他外,它分散了当前问题的注意力。尽管媒体报道广泛,但对存在风险话语的怀疑却在学术文献中受到了严格的治疗有限。解决这种不平衡,本文重建并评估了三个反对存在风险观点的共同参数:分心论点,人类脆弱的论点以及干预论点的检查点。通过系统地重建和评估这些论点,本文旨在为更平衡的学术话语和对AI的进一步研究提供基础。
ElifOrakçı,Dilay Z.Karadöller46探索土耳其话语中的归因:基于注释的分析Aysu Nur yaman
摘要 本文的核心兴趣是拟人化社交机器人 Ai-Da(Aidan Meller 画廊/牛津大学),它被视为文化和表征手势相互作用的参与者。这些手势决定了该机器人的呈现方式,即如何表达、解释和推广其活动。本文批评了在围绕该机器人的呈现策略中使用跨历史话语,因为这种话语强化了所谓的“机器神话”。讨论的重点是这个绘画机器人的个性化和体现。有人认为,为 Ai-Da 提供令人回味的硅胶脸和拟人化的身体是一种社会政治决定,它塑造了公众对社交机器人的普遍想象。
人工智能 (AI) 的伦理层面是信息系统 (IS) 研究及其他领域的一个突出主题。关于如何设计和使用 AI 的期刊和会议文章越来越多。为此,IS 研究不仅提供和整理有关信息技术的伦理层面的知识,还提供和整理有关其接受度和影响的知识。然而,目前关于人工智能伦理层面的讨论非常不结构化,并且寻求清晰度。由于传统的系统文献研究因缺乏绩效而受到批评,我们采用了一种经过调整的话语方法来识别辩论中最相关的文章。由于话语中的基础手稿并不明显,我们使用了一种基于加权引用的技术来识别跨学科人工智能伦理领域中的基础手稿及其关系。从最初的 175 篇论文样本开始,我们提取并进一步分析了 12 篇基础手稿及其引文。尽管我们发现传统上策划的道德原则与已确定的 AI 道德维度之间存在许多相似之处,但没有一篇 IS 论文可以被归类为该论述的基础。因此,我们得出了自己关于 AI 的道德维度,并为未来的 IS 研究提供了指导。
虽然基于语言模型 (LM) 的聊天机器人和生成搜索引擎擅长回答具体查询,但在未知的未知领域中发现信息对用户来说仍然具有挑战性。为了模拟常见的教育场景,即儿童/学生通过聆听和参与与父母/老师的对话来学习,我们创建了协作 STORM (Co-STORM)。1 与要求用户提出所有问题的问答系统不同,Co-STORM 允许用户观察并偶尔引导多个 LM 代理之间的对话。代理代表用户提问,让用户偶然发现未知的未知事物。为了促进用户交互,Co-STORM 通过将未发现的信息组织成动态思维导图来帮助用户追踪对话,最终生成一份综合报告作为总结。对于自动评估,我们通过收集具有用户目标的真实信息搜索记录来构建 WildSeek 数据集。 Co-STORM 在话语追踪和报告质量方面均优于基线方法。在进一步的人工评估 2 中,70% 的参与者更喜欢 Co-STORM 而不是搜索引擎,78% 的参与者更喜欢它而不是 RAG(检索增强生成)聊天机器人。