LLM 的发展与语言学有关,但通常仅涉及极少的语言学知识(Bender 等人,2021 年)。尽管在人工智能发展的新阶段取得了许多飞跃,但 NLP 和 NLU 对我们通过人类语言命令与计算机通信的能力的提高最为重要。通过向学生展示生成式人工智能工具背后的计算语言学过程及其局限性,我们打破了人们的幻想,即这些技术确实是独立学习的智能或可靠替代品。
背景:人工智能 (AI) 聊天机器人是模拟人类对话的计算机程序,使用人工智能(包括机器学习和自然语言处理)通过自然语言与用户交互。随着 COVID-19 疫情的爆发,聊天机器人等数字健康技术的使用加速。目标:本研究旨在调查人工智能聊天机器人在抗击 COVID-19 疫情中的应用并探索其特点。方法:我们回顾了 COVID-19 疫情期间有关健康聊天机器人的文献。使用相关关键词(如“聊天机器人”、“对话代理”和“人工智能”)搜索 PubMed、Scopus、Web of Science 和 Google Scholar。为了选择相关文章,我们根据纳入和排除标准进行了标题、摘要和全文筛选。从选定的文章中提取了聊天机器人、它们的应用程序和设计特征。结果:在最初确定的 673 篇文章中,有 17 篇文章符合纳入条件。我们根据选定的人工智能聊天机器人的角色、应用和设计特点对其进行了分类。约 70% 的聊天机器人被设计用于预防。我们的审查确定了 COVID-19 大流行期间 AI 聊天机器人的 8 个关键应用,包括 (1) 信息传播和教育、(2) 自我评估和筛查、(3) 连接健康中心、(4) 打击错误信息和假新闻、(5) 患者跟踪和服务提供 (6) 心理健康 (7) 监测暴露 (8) 疫苗信息和安排。AI 聊天机器人部署在各种平台上,包括移动应用程序、网络和社交媒体。基于移动的聊天机器人是最常见的。所有聊天机器人都使用自然语言理解 (NLU) 方法来理解自然语言输入并根据用户的请求采取行动。超过 50% 的 AI 聊天机器人使用 NLU 平台,包括 Google Dialogflow、Rasa 框架和 IBM Watson。结论:AI 聊天机器人可以在抗击 COVID-19 大流行中发挥有效作用。在 COVID-19 疫情期间,使用 AI 聊天机器人的优势包括提高人们的意识、优化医疗资源的使用和减少不必要的接触。使用 NLU 平台可能是在医疗领域开发 AI 聊天机器人的合适解决方案。随着人工智能领域的进步,AI 聊天机器人似乎在医疗保健领域,尤其是在公共卫生、慢性病管理和心理健康领域有着光明的未来。
NALSAR - 国家法律研究学院 NCLAT - 国家公司法上诉法庭 NDIM - 新德里管理学院 NECC - 国家蛋品协调委员会 NeGD - 国家电子政务部 NICE - 印度竞争专家网络 NIRC - 印度北部地区委员会 NGA - 非政府顾问 NLU - 国立法律大学 NMCC - 日产汽车运输公司 NMIMS - 纳尔西蒙吉管理学院 NPC - 国家生产力委员会 NPCI - 印度国家支付公司 NYK Line - 日本邮船株式会社
Navsahyadri 理工学院,印度马哈拉施特拉邦浦那 通讯作者:dnyaneshwarikodlinge1226@gmail.com 2 摘要:人工智能 (AI)、大数据和物联网 (IoT) 等技术的发展。自过去十年以来,标志着技术领域取得了许多进步。这些技术具有广泛的应用。其中一个应用是“聊天机器人”或“聊天机器人”。聊天机器人是会话式人工智能,它在交谈时模仿人类,并通过自动执行日常任务消除对人类的需求。在进行的研究中,我们在教育领域创建了一个聊天机器人,它被命名为“大学咨询聊天机器人”,这个聊天机器人是一个基于 Web 的应用程序,可以分析和理解用户的查询并提供即时和准确的响应。Rasa 技术用于构建此聊天机器人。它是一种开源技术,使用其两个主要软件包,即 Rasa Core 和 Rasa 自然语言理解 (NLU) 来构建上下文 AI 聊天机器人。NLU 用于推断意图并从用户输入中提取必要的实体,而 Rasa Core 则通过借助循环神经网络 (RNN) 构建概率模型来提供输出。通过获取混淆矩阵和性能指标(如精度、准确度和 F1 分数)来评估模型,这些指标的平均值为 0.628、0.725 和 0.669。此聊天机器人的准确性、对人力资源的依赖性、24 x 7 可访问性和低维护性为其实施创造了各种机会。这个对话代理不仅可以用于教育机构,还可以用于查询变得繁琐的地方。关键词:Rasa 框架、AI、聊天机器人、查询、开源、NLP、大学查询聊天机器人。
APPLIED SCIENTIST II Jun 2021 - Present • Researching large language models (LLMs) regarding (1) novel reward modeling and preference optimization strategies for multilingual LLMs and (2) enabling LLMs to use tools and automate routines by invoking APIs • Developed dynamic data selection strategy for multilingual natural language understanding, reducing data overhead by 95% and increasing ease of model expansion to support new international markets (e.g., KO,TR,NL)•拥有6个市场和4种语言的对话代理和NLP模型的18个生产释放周期(ES,PT,JP,AR),包括数据摄入和处理以及开发以及模型开发,培训,培训,评估,部署,监视,监控,维护和修补•通过型号的级别播放的校准•逐渐启动的校准
驾驶中的自动化将使驾驶员的角色从演员变成被动主管。尽管车辆将负责驾驶演习,但驾驶员将需要依靠自动化并了解其决定以建立他们与车辆之间的信任关系。最近在对话剂和侵害机器中取得了进展。此外,在人类和马尼斯之间的信任建立中似乎很有希望。我们认为,在汽车环境中研究情绪对话剂的使用至关重要,以在驾驶员与车辆之间建立牢固的关系。在这个研讨会中,我们旨在收集研究人员和行业从业人员,从HCI,ML/AI,NLU和心理学的不同费尔德(Felds)进行集思广益,以围绕偏爱机器,同理心和对话代理进行集思广益,并特别关注人类车辆互动。诸如“汽车中多模式和同情代理的特殊性是什么?”,“代理如何使驾驶员意识到
Covid-19 给公众带来了大量信息,几乎在所有平台上都有真有假。对于个人来说,从海量信息中筛选出可靠、准确的事实是一项艰巨的任务,也可能令人不快。这很重要,因为从根本上说,控制疫情依赖于个人对公共卫生措施的遵守及其对必要性的理解,任何障碍,包括错误信息,都可能产生严重的负面影响。在本文中,我们提出了一个对话式人工智能系统,它使用双管齐下的方法解决错误信息:首先,让用户通过语音或文本以自然语言轻松访问从多个权威来源合成的简明、可靠的信息;其次,直接驳斥有关冠状病毒的普遍流传的谣言。最初的系统针对的是大学的教职员工和学生,但具有广泛的适用性。在系统的自然语言理解 (NLU) 测试中,我们获得了 0.906 的 F1 分数。我们还讨论了健康信息对话式自然语言界面领域当前的研究挑战。
间接用户请求(iurs),例如“这里很冷”而不是“请提高温度?”在人类以任务为导向的对话中很常见,并掌握了听众的世界知识和务实的理由。虽然大型语言模型(LLMS)可以效率地处理这些请求,但由于资源范围而在虚拟助手上部署的较小模型经常在挣扎中挣扎。此外,现有的面向任务的Di-Alogue基准缺乏足够的复杂话语现象的例子,例如直接性。为了解决这个问题,我们提出了一组语言标准以及基于LLM的管道,用于生成现实的IARS,以测试自然语言理解(NLU)和对话状态跟踪(DST)模型,然后再部署在新领域。我们还发布了基于模式指导对话框(SGD)语料库的IURS数据集,作为一个比较测试床,用于评估较小模型在处理指定请求时的实现。
10 Cobbe 和 Singh 的论文旨在将基础模型与 LLM 进行比较。他们解释说,“考虑到对数据、专业知识和计算能力的需求,内部机器学习可能会令人望而却步。通过让开发人员能够以低成本、无需大量投入的方式将最先进的 ML 功能‘插入’到他们的应用程序中,AIaaS 增加了 ML 支撑更广泛应用程序的可能性”。 Jennifer Cobbe 和 Jatinder Singh,“人工智能即服务:法律责任、义务和政策挑战” [2021] 计算机法律与安全评论 < https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3824736> 访问日期:2021 年 9 月 19 日 11 Bommasani 等人 (n 8) 3. 12 例如,如果基础模型在有毒数据上进行训练,那么建立在它们之上的所有下游应用程序都会因此受到“污染”。 13 Emily M. Bender 和 Alexander Koller,《攀登自然语言理解:数据时代的意义、形式和理解》(计算语言学协会 2020 年)< https://aclanthology.org/2020.acl-main.463/ > 于 2021 年 9 月 15 日访问 14 Samoili 等人(注 5)
摘要 - 在过去的十年中,人工智能(AI)和Edge Computing(EC)的关键进步已导致Edgeai服务的发展,以提供对关键任务应用必不可少的智能和低潜伏期响应。但是,Edgeai服务对网络极端的扩展可能会面临挑战,例如负载波动,导致AI推断延迟以及对能源效率的担忧。本文提出了“模型交换”,其中Edgeai服务使用的模型将与另一个随时可用的模型交换,以便在运行时推理任务中实现成本和能源节省。ModelSwapper可以通过采用低成本算法技术来实现这一目标,该技术探讨了计算开销与模型准确性之间有意义的权衡。这样做,边缘节点通过用更简单的模型代替复杂模型来适应负载波动,从而满足所需的延迟需求,尽管不确定性较高。我们使用两种EDGEAI服务(对象检测,NLU)进行评估表明,ModelSwapper可以显着减少至少27%和68%的能量使用和推理延迟,而准确性仅降低了1%。索引术语 - 机器学习,边缘计算