摘要。代码气味是软件代码中潜在问题的指标,可以使维护更具挑战性。传统的检测代码气味的方法主要依赖于手工制作的规则和启发式方法,而最近的进步探索了机器学习(ML)和深度学习(DL)技术。在本文中,我们研究了基于迅速的大语言模型(LLM)在代码气味检测中的应用,利用最先进的模型,即经过生成的预训练的预训练的Transformer-4(GPT-4)和大型语言模型Meta AI(LLAMA)。我们对机器学习代码质量(MLCQ)数据集进行了广泛的分析,重点介绍这些LLM在提示识别和分类代码气味时的性能。通过系统地评估每个模型的性能,我们提供了对它们的精确,召回和能够跨越不同类型的代码气味的能力的见解。我们的结果旨在证明LLM的潜力是自动化某些类型的代码气味的有前途的工具,同时表现不佳。
使用生成人工智能(Gen AI)开业1。本练习说明于2025年1月28日发行,于2025年2月3日开始,并将适用于当时的所有程序。简介2。生成的AI(Gen AI)是一种人工智能的一种形式,能够根据从培训材料体系中获取的模式和数据创建新内容,包括文本,图像或声音。培训材料可能包括从公开和私人可用的文本来源获得的信息以生成大型语言模型。3。gen ai可能采用通用大语模型程序的形式,例如Chat-GPT,Claude,Grok,Llama,Google Bard,Co-Pilot,AI Media或阅读AI或更多的定制计划,专门针对Lexis Advance AI,例如法律,法律,Westlaw Precision,AI Lawyer,Luminance和Cocoun Core。这些例子并非旨在详尽。此类程序可以使用“聊天机器人”,并提示此类程序用户的请求。
生成人工智能(Gen AI)的使用开始 1. 本实践指南于 2025 年 2 月 3 日开始实施,并从该日起适用于所有程序。 简介 2. 生成人工智能(Gen AI)是一种人工智能,它能够基于从大量训练材料中获取的模式和数据创建新内容,包括文本、图像或声音。该训练材料可能包括通过“抓取”公开和私人可用的文本源以生成大型语言模型而获得的信息。 3. Gen AI 可以采用通用大型语言模型程序的形式,例如 Chat-GPT、Claude、Grok、Llama、Google Bard、Co-Pilot、AI Media 或 Read AI,或更多专门针对律师的定制程序,例如 Lexis Advance AI、ChatGPT for Law、Westlaw Precision、AI Lawyer、Luminance 和 CoCounsel Core。这些示例并非详尽无遗。此类程序可能使用“聊天机器人”并向此类程序的用户发出提示请求和细化请求。
生成人工智能 (Gen AI) 的使用开始 1. 本实践指南于 2024 年 11 月 21 日发布,于 2025 年 2 月 3 日开始生效,并将适用于该日期起的所有程序。 简介 2. 生成人工智能 (Gen AI) 是一种人工智能,它能够基于从大量训练材料中获取的模式和数据创建新内容,包括文本、图像或声音。该训练材料可能包括通过“抓取”公开和私人可用的文本源以生成大型语言模型而获得的信息。 3. Gen AI 可以采用通用大型语言模型程序的形式,例如 Chat-GPT、Claude、Grok、Llama、Google Bard、Co-Pilot、AI Media 或 Read AI,或更多专门针对律师的定制程序,例如 Lexis Advance AI、ChatGPT for Law、Westlaw Precision、AI Lawyer、Luminance 和 CoCounsel Core。这些示例并非详尽无遗。此类程序可能会使用“聊天机器人”,并向此类程序的用户提出提示请求和细化请求。
大语言模型(LLM)的兴起,例如Llama和Chatgpt,通过改善解释性为增强推荐系统提供了新的机会。本文提供了一份系统的文献综述,旨在利用LLMS生成建议的解释,这是促进透明度和用户信任的关键方面。我们在ACM计算文献指南中进行了全面搜索,涵盖了从Chatgpt(2022年11月)到现在(2024年11月)的出版物。我们的搜索产生了232篇文章,但是在应用纳入标准后,只有6篇文章被确定为直接解决LLMS在解释建议中的使用。这种稀缺性强调,尽管LLMS的增加,但它们在可解释的推荐系统中的应用仍处于早期阶段。我们分析了这些精选研究,以了解当前的方法,确定挑战并提出未来研究的方向。我们的发现强调了LLM的潜力改善了推荐系统的解释,并鼓励开发更透明和以用户为中心的建议解释解决方案。
摘要。本文研究了两种大语模型(LLMS)的性能-GPT-3.5-Turbo和Llama-2-13b-以及一个小型语言模型(SLM) - Gemma-2b,在气候变化(CC)和环境领域内的三个不同的分类任务。将基于BERT的模型作为基准,我们将它们的功效与这些基于变压器的模型进行了比较。此外,我们通过分析这些文本分类任务中语言置信分数的校准来评估模式的自我评估能力。我们的发现表明,尽管基于BERT的模型通常均优于LLM和SLM,但大型生成模型的性能仍然值得注意。此外,我们的校准分析表明,尽管Gemma在初始任务中得到了很好的校准,但此后会产生不一致的结果。骆驼经过合理的校准,GPT始终表现出强大的校准。通过这项研究,我们旨在为持续的讨论生成LMS在解决地球上一些最紧迫的问题方面的实用性和有效性的讨论中做出贡献,并在生态学和CC的背景下强调了它们的优势和局限性。
使用生成人工智能(Gen AI)开业1。本练习说明于2025年1月28日发行,于2025年2月3日开始,并将适用于当时的所有程序。简介2。生成的AI(Gen AI)是一种人工智能的一种形式,能够根据从培训材料体系中获取的模式和数据创建新内容,包括文本,图像或声音。培训材料可能包括从公开和私人可用的文本来源获得的信息以生成大型语言模型。3。gen ai可能采用通用大语模型程序的形式,例如Chat-GPT,Claude,Grok,Llama,Google Bard,Co-Pilot,AI Media或阅读AI或更多的定制计划,专门针对Lexis Advance AI,例如法律,法律,Westlaw Precision,AI Lawyer,Luminance和Cocoun Core。这些例子并非旨在详尽。此类程序可以使用“聊天机器人”,并提示此类程序用户的请求。
该研究包括五个封闭的模型(OpenAI的GPT 3.5和4,Google的Gemini 1.5 Pro,Yandexgpt 2和3)和两个开放型模型(Meta的Llama 2和Aya,是Cohere的大型多语言模型)。实验是在与不同任务相对应的六个数据集上进行的 - 问题回答,因果推理,中学数学问题,机器翻译和拼写校正。三个数据集是专门为这项研究准备的。正如预期的那样,哈萨克(Hazakh)任务上LLM的质量低于平行英语任务。GPT-4显示出最佳的结果,其次是双子座和AYA。通常,LLM在分类任务上的表现更好,例如回答多项选择问题,并与语言生成任务(例如拼写校正)斗争。因此,在线翻译服务(例如Google Translate)仍然是在哈萨克语和英语以及哈萨克语和俄罗斯之间翻译的更可靠的选择。我们预计更多了解哈萨克的LLM的出现,评估的方法和数据集变得至关重要。
使用生成人工智能(Gen AI)开业1。本练习说明于2025年1月28日发行,于2025年2月3日开始,并将适用于当时的所有程序。简介2。生成的AI(Gen AI)是一种人工智能的一种形式,能够根据从培训材料体系中获取的模式和数据创建新内容,包括文本,图像或声音。培训材料可能包括从公开和私人可用的文本来源获得的信息以生成大型语言模型。3。gen ai可能采用通用大语模型程序的形式,例如Chat-GPT,Claude,Grok,Llama,Google Bard,Co-Pilot,AI Media或阅读AI或更多的定制计划,专门针对Lexis Advance AI,例如法律,法律,Westlaw Precision,AI Lawyer,Luminance和Cocoun Core。这些例子并非旨在详尽。此类程序可以使用“聊天机器人”,并提示此类程序用户的请求。
•DeepSeek似乎比其他前沿模型更有效地训练了45倍的型号。清楚,DeepSeek的大多数方法已经存在。这是最大的成就:面对筹码禁令,弄清楚如何立即部署它们,并介绍其自身的自我增强学习•专家的混合:GPT-3.5使用其整个模型来解决培训和推理,尽管可能只需要一小部分模型。相比之下,GPT-4和DeepSeek是专家(MOE)模型的混合物,它们仅激活解决每个问题所需的模型的各个部分。DeepSeek V3的参数为6,710亿个,但在任何给定时间中只有370亿个活动•MLA是指“多头潜能”,这是对DeepSeek保持较小的存储器的行话,而在运行的过程中,•其他deepseek效率方法在运行•与BF16或FP3精确的过程中存储的其他deepseek效率方法,这些方法是供应fp3的精确量,它们是精确的。模型还使用多言语预测(MTP),而不仅仅是预测下一代币,这将准确性降低了约10%,但提出速度却增加了一倍,但DeepSeek声称V3非常便宜,需要2.7毫米H800 GPU小时,这是$ 2/GPU时的费用,只需$ 2/GPU时,只有5600万美元2美元。Llama 3.1 405B最终训练运行的GPU小时数量可比数量高约10倍3。需要进行更多的分析来确定这种过度专业化是否是一个更广泛的问题•DeepSeek今天早上刚刚宣布了另一个版本:多模式模型(文本,图像生成和解释)。DeepSeek明确指出,这是最终培训的成本,不包括“与先前的研究和消融实验相关的架构,算法或数据相关的成本”•DeepSeek V3性能与OpenAI的4O和Anthropic的SONNET-3.5竞争,并且似乎比Llama最大的培训成本更好。DeepSeek提供的API访问为每百万个令牌0.14美元,而Openai则收取每百万个令牌4 $ 750;也许某种程度的损失领导者定价•DeepSeek可能“过度指定”其模型:它在MMLU基准测试上做得很好,但是当问题略有变化时,其性能的下降速度比其他型号更快。毫不奇怪,DeepSeek不假装数据隐私并存储所有内容