Fine-Tuning LLMs at Home with Axolotl
为什么重要:使用 Axolotl 在家中微调大型语言模型(如 GPT),以最少的设置实现定制的 AI 应用程序。
Do LLMs Remember Like Humans? Exploring the Parallels and Differences
记忆是人类认知最迷人的方面之一。它使我们能够从经验中学习,回忆过去的事件,并管理世界的复杂性。随着人工智能 (AI) 的发展,尤其是大型语言模型 (LLM),机器正在展示出非凡的能力。它们处理和生成模仿人类交流的文本。这提出了一个重要的 […]The post LLM 能像人类一样记住吗?探索相似之处和差异首先出现在 Unite.AI 上。
Why pursuing an LLM in Constitutional Law is the Next Big Step for legal professionals
您是否曾经想过,我们生活的世界,即使在所有冷漠、对比和矛盾之中,如何保持控制而不陷入混乱?如果您真的详细思考过这个话题,您肯定会发现,政府机构或当局制定的规则和条例……这篇文章为什么攻读宪法法学硕士学位是法律专业人士的下一个重大步骤首先出现在 CMR 博客上。
Supreme Court Justices use rhetoric to affirm high court's power and influence, LLM analysis finds
当美国最高法院法官撰写意见时,他们大多谈论相关案件。但偶尔,他们会用所谓的“独白语气”来讨论自己或法庭。
Avoiding Hallucinations: Using Confidence Scores to Trust Your LLM
在本综合指南中,了解导致 LLM 产生幻觉的原因、测量这些幻觉的方法以及克服幻觉的有效策略。
Reflection 70B : LLM with Self-Correcting Cognition and Leading Performance
Reflection 70B 是由 HyperWrite 开发的开源大型语言模型 (LLM)。这种新模型引入了一种 AI 认知方法,可以重塑我们在从语言处理到高级问题解决等众多领域与 AI 系统交互和依赖的方式。利用 Reflection-Tuning,这是一种突破性的技术,允许模型自我评估和纠正 […]The post Reflection 70B : LLM with Self-Correcting Cognition and Leading Performance appeared first on Unite.AI.
Ferret-UI: Grounded Mobile UI Understanding with Multimodal LLMs
多模态大型语言模型 (MLLM) 的最新进展值得关注,然而,这些通用领域的 MLLM 往往在理解用户界面 (UI) 屏幕和与用户界面 (UI) 屏幕有效交互的能力方面存在不足。在本文中,我们介绍了 Ferret-UI,这是一种专为增强对移动 UI 屏幕的理解而量身定制的新型 MLLM,具有引用、基础和推理功能。鉴于 UI 屏幕通常具有比自然图像更长的纵横比,并且包含较小的感兴趣对象(例如图标、文本),我们在 Ferret 之上加入了“任何分辨率”以……
LLM in Banking and Finance: Key Use Cases, Examples, and a Practical Guide
在当今快节奏的金融世界中,技术正在重塑银行的运营方式。随着他们旨在改善客户服务、简化流程并确保合规性,银行专用的大型语言模型 (LLM) 应运而生,成为游戏规则的改变者。有了正确的训练数据,这些模型可以改变从客户互动到欺诈检测的一切。全球银行业 […]
LLMs develop their own understanding of reality as their language abilities improve
在受控实验中,麻省理工学院 CSAIL 的研究人员发现 LLM 内部正在深入发展现实模拟,这表明对语言的理解不仅仅是简单的模仿。
How to access Chinese LLM chatbots across the world
《麻省理工技术评论》的“如何做”系列可以帮助您完成任务。自政府开始允许人工智能公司在 2023 年夏天向公众开放他们的模型以来,已经发布了数百个中国大型语言模型。对于西方用户来说,找到这些中国模型并尝试它们……
Scientists urge for ethical guidelines as LLMs play wider roles in healthcare
根据一项新研究,随着人工智能继续改变医疗保健,从药物发现到医学影像分析,道德准则却明显缺失。这项研究由波茨坦大学的 Joschka Haltaufderheide 和 Robert Ranisch 撰写,发表在《新泽西数字通讯》上,分析了 53 篇文章,以描绘出医学和医疗保健领域大型语言模型 (LLM) 的道德格局。研究发现,人工智能已经应用于各种医疗保健领域,包括:诊断影像解释药物开发和发现个性化治疗计划患者分类和风险评估医学研究和文献分析人工智能最近对医疗保健和医学的影响微不足道科学家呼吁制定道德准则,因为 LLM 在医疗保健中发挥着更广泛的作用,这篇文章首先出现在 DailyAI 上
SenseNova 5.5 – China’s first real-time LLM beats GPT-4o
中国 AI 开发商 SenseTime 发布了其升级版多模态 SenseNova 5.5 模型,并声称它代表了最先进的技术。升级后的模型是在 SenseNova 5 发布几个月后推出的,SenseTime 表示 SenseNova 5 与 GPT-4 Turbo 不相上下。据报道,升级后的 600B 参数 SenseNova 5.5 整体性能提高了 30%。该公司发布的基准测试分数显示,其模型击败了 GPT-4o 和 Anthropic 的 Claude Sonnet 3.5 模型。SenseNova 5.5 擅长的基准测试是中国模型通常使用的基准测试。如果他们使用 GPQA、Humaneva
Llama 3: the latest advances in LLM
Llama 3 是 Meta AI 的最新进展,拥有无与伦比的语言理解能力,增强了其执行复杂任务的能力。凭借扩大的词汇量和先进的安全功能,该模型可确保提高性能和多功能性。
#426 – Edward Gibson: Human Language, Psycholinguistics, Syntax, Grammar & LLMs
爱德华·吉布森 (Edward Gibson) 是麻省理工学院的心理语言学教授,并担任麻省理工学院语言实验室负责人。请查看我们的赞助商来支持此播客:- Yahoo Finance:https://yahoofinance.com- Listening:https://listening.com/lex 并使用代码 LEX 获得一个月免费- Policygenius:https://policygenius.com/lex- Shopify:https://shopify.com/lex 获得每月 1 美元的试用期- Eight Sleep:https://eightsleep.com/lex
Efficient fact-checking in LLMs like ChatGPT with SAFE
Google 的 DeepMind 开发了一种用于大型语言模型中长篇事实性的新方法——搜索增强事实性评估器 (SAFE)。该 AI 事实核查工具表现出令人印象深刻的准确率,优于人类事实核查员。