对话式人工智能 (AI) 的使用正在增加,例如类人社交聊天机器人。虽然预计会有越来越多的人与社交聊天机器人建立亲密关系,但关于人与人工智能友谊的理论和知识仍然有限。由于与人工智能的友谊可能会改变我们对友谊本身的理解,本研究旨在通过已开发的概念框架探索人与人工智能友谊的含义。我们对与社交聊天机器人 Replika 建立人与人工智能友谊的人进行了 19 次深入访谈,以了解他们如何理解和看待这种友谊,以及它与人类友谊的比较。我们的结果表明,虽然人与人工智能的友谊可能以与人与人友谊类似的方式理解,但聊天机器人的人工智能性质也在多个方面改变了友谊的概念,例如允许根据用户的需求定制更加个性化的友谊。
随着教育组织越来越多地考虑支持或用聊天机器人代替人类聊天顾问,至关重要的是要检查用户对聊天机器人的看法与人类不同。聊天机器人的对话特征可能会信号响应能力,从而改善用户响应。为了探讨这一点,我们使用建议设置的研究进行了三个在线实验(N总计= 1,005)。我们计算了汇总数据分析,因为个人研究结果并未为我们的假设提供明确的支持。结果表明,用户更喜欢人类代理人使用的能力和意图,但不觉得享受。响应能力提高了可爱,温暖和满意度。对相互作用的看法介导了响应效应。我们的发现表明,教育组织可以通过良好的聊天机器人来支持其研究,而无需引起负面用户的响应。
摘要本文介绍了Hanooman,这是一种生成的AI和大型语言模型聊天机器人,其灵感来自Hindu Geity Lord Hanuman。Hanooman旨在体现力量,敏捷性和奉献精神的素质,利用尖端的语言处理能力,为用户提供信息丰富且引人入胜的对话。我们探索了哈诺曼的概念框架,架构和培训程序,展示了其在各个领域的潜在应用。我们的评估结果表明,在响应准确性和上下文理解方面,Hanooman优于现有的聊天机器人,使其成为自然语言处理和人类计算机互动的有前途的工具。大语言模型(LLM)和生成AI是人工智能的重大进步,彻底改变了我们与技术的互动,生成内容和理解人类语言的方式。llms,在大量数据集中受过培训,在语言翻译,文本摘要,问题答案和创意写作等任务中表现出色。生成的AI(AI的一个子集)会产生自主输出,通常表现出惊人的创造力和连贯性。印度亿万富翁穆克什·安巴尼(Mukesh Ambani)与IIT孟买和其他八个印度技术学院合作,加入了AI竞赛,以推出“ Hanooman”,这是一集,该集合以22种印度语言培训了大型语言模型。关键字:哈诺曼,大语言模型,人工智能,生成AI1。简介
摘要:在本研究中,作者收集了创新型人工智能聊天机器人 ChatGPT 在推出后的第一个月的推文。使用潜在狄利克雷分配 (LDA) 主题建模算法分析了总共 233,914 条英文推文,以回答“ChatGPT 能做什么?”的问题。结果揭示了三个一般主题:新闻、技术和反应。作者还确定了五个功能领域:创意写作、论文写作、提示写作、代码编写和回答问题。分析还发现,ChatGPT 有可能以积极和消极的方式影响技术和人类。最后,作者概述了人工智能进步需要解决的四个关键问题:工作演变、新的技术格局、对通用人工智能的追求以及进步伦理难题。
功能越来越强大的聊天机器人的兴起为通过对话调查收集信息提供了一种新方法,在对话调查中,聊天机器人会提出开放式问题,解释用户的自由文本回答,并在需要时探究答案。为了研究这种聊天机器人在进行调查方面的有效性和局限性,我们进行了一项约 600 名参与者的实地研究。在这项主要涉及开放式问题的研究中,一半参与者在 Qualtrics 上参加了典型的在线调查,另一半参与者与人工智能聊天机器人互动以完成对话调查。我们对 5,200 多个自由文本回复进行了详细分析,结果表明,聊天机器人显著提高了参与者的参与度,并在信息量、相关性、特异性和清晰度方面获得了明显更好的质量回复(以格赖斯格言来衡量)。基于我们的研究结果,我们讨论了创建人工智能聊天机器人以进行有效调查及其他活动的设计意义。
摘要:多年来,几项研究探讨了AI在教育方面的能力。本研究旨在研究Reco.AI在回答有关10年级数学的数学概念方面的表现。使用生成训练的预训练的变压器3(GPT-3)模型在10年级数学课程中专门创建聊天机器人,并使用GPT-3生成的文本数据集用于机器学习和自然语言处理。研究人员通过评估其准确性,精度和回忆以及F1得分来测试准确性。F1分数测试用作性能指标,以评估聊天机器人响应的精度和回忆。此外,研究人员使用描述性统计数据(平均值和标准偏差)分析了收集的数据。准确度为61.6%(50项测试)和78%(10个项目测试)显示出有望在教育环境中使用的潜力。但是,精度的一致性可能在主题之间有所不同。本研究表明,聊天机器人具有回答10年级数学问题的巨大潜力,但是需要进一步的研究以改善其表现并将其应用于实际的学习环境。这项研究的结果有可能为智能辅导系统和个性化教育技术的发展做出贡献,从而可以增强学生在数学及其他方面的学习经验。
摘要 人工智能聊天机器人正日益取代人类聊天服务代理,因为机器人能够通过自然语言和人工智能 (AI) 技术与人类交流。研究发现,大学需要提供由人工智能驱动的有效、高效的数字平台,以支持整体虚拟学习 (Alharthi、Spichkova 和 Hamilton,2019)。COVID-19 大流行扰乱了面对面的学习,大多数机构现在已经采用了混合或纯在线学习。在新生以虚拟方式入学的情况下,学生的问询有所增加,传统的人工支持渠道变得无效。这项研究旨在开发一种对话式人工智能聊天机器人,以提高内罗毕大学计算与信息学系 (DCI) 处理学生问询的效率。这项开发研究采用了瀑布式软件开发方法。数据来源是内罗毕大学网站上的内容和 DCI 学生。使用内容分析和结构化访谈来获取数据。自然语言处理 (NLP) 和 LSTM 模型用于构建 AI 聊天机器人 (称为 UniBot)。BLUE 评估方法用于评估 UniBot 在提供准确响应方面的有效性。研究确定聊天机器人的响应与 BLUE 得分为 0.75 几乎完美匹配。还采用了定量方法来评估模型的效率,方法是让 20 名目标学生使用聊天机器人 3 周,并通过问卷给出反馈。从学生的回答中获得的平均分数为 4.10,标准差为 0.59,这意味着 UniBot 实现了提高处理学生查询效率的目标。特别是,与 UniBot 互动的学生表示,该机器人易于使用,可以非常快速地检索所需信息。但是,聊天机器人无法回答它未接触过的主题的问题,并且会留下未回答的问题。在这种情况下,建议聊天机器人提供相关链接或人脉。
在人工智能的最前沿,本文深入研究了同理心理,以彻底改变计算机能力的获取,并促进在线高等教育中的动机,监管和元认知动态。先前关于学生处理移情反馈的研究是有限的,通常会忽略学习表现及其对学生动机,自我调节和元认知推理的影响。目的是分析在线学习中这四个问题的同理心反馈,认知和情感的有效性。使用了准实验设计,其中将对话代理DSLAB-BOT集成到教学大纲和信息技术基础架构中。在线大学分布式系统课程(n = 196)的学生,通过单级集群概率抽样选择。他们分别分为实验组和对照组,分别从DSLAB机器人和老师那里获得反馈。结果表明,除了一项(自我效能感)和自我调节外,两组之间的学习绩效,动机或自我调节之间没有显着差异。在13个认知(1-4、6、7、9-15)和七个情感(1、4-9)聊天机器人反馈类型之间存在牢固的相关性,具有概念上的变化(MRCC)和个人成长和理解(MRPGU)。相似的聊天机器人反馈类型的权重很高,表明这些反馈对元认知推理组件的明显影响,甚至是自我反射(MRSR)。此外,特定的移情反馈类型对于强烈培养MRCC,MRPGU和MRSR至关重要。总而言之,同理心聊天机器人的反馈与人类教师的反馈在促进学习,动机和自我调节方面一样有效。从业人员应考虑这些特定类型的移情反馈,以供未来的移情代理人配置。
摘要 在本研究中,我们提出了聊天机器人与人工智能交互 (CI-AI) 框架,作为一种训练基于转换器的聊天机器人类架构的方法,用于任务分类,重点是人与机器的自然交互,而不是界面、代码或正式命令。智能系统通过人工释义来增强人类来源的数据,以便为自然语言处理 (NLP) 的进一步经典、注意力和基于语言转换的学习方法生成大量训练数据。要求人类释义命令和问题以进行任务识别,从而进一步执行算法作为技能。命令和问题分为训练集和验证集。共记录了 483 个回复。其次,训练集由 T5 模型释义,以便用进一步的数据进行扩充。在对训练数据进行两个时期的微调后,对七种最先进的基于 Transformer 的文本分类算法(BERT、DistilBERT、RoBERTa、DistilRoBERTa、XLM、XLM-RoBERTa 和 XLNet)进行了基准测试。我们发现,当训练数据通过 T5 模型增强时,所有模型都得到了改进,分类准确率平均提高了 4.01%。最好的结果是在 T5 增强数据上训练的 RoBERTa 模型,其分类准确率达到了 98.96%。最后,我们发现,通过输出标签预测的逻辑回归,五个表现最佳的 Transformer 模型的集合在人类反应数据集上的准确率达到了 99.59%。高性能模型允许智能系统通过类似聊天机器人的界面在社交互动层面解释人类命令(例如“机器人,我们可以聊天吗?”),并允许非技术用户更好地访问人工智能。
设计、设置和参与者 在这项横断面研究中,使用来自公共社交媒体论坛 (Reddit 的 r/AskDocs) 的公开且不可识别的问题数据库,随机抽取了 2022 年 10 月以来的 195 场交流,其中经过验证的医生回答了一个公开问题。聊天机器人的回答是通过在 2022 年 12 月 22 日和 23 日将原始问题输入到新的会话中(会话中没有提出过先前的问题)生成的。一组持牌医疗保健专业人员对原始问题以及匿名和随机排序的医生和聊天机器人的回答进行了三次评估。评估人员选择“哪个答案更好”,并判断“提供的信息质量”(非常差、差、可接受、好或非常好)和“提供的同理心或临床态度”(没有同理心、稍微有同理心、中度有同理心、有同理心和非常有同理心)。平均结果按 1 到 5 的等级排序,并在聊天机器人和医生之间进行比较。