industries, and bring AGI closer to reality Paris, 21 May, 2024 – “H”, a global foundation model and agentic AI company, has launched today in Paris and announced a $220M seed round from global companies including Accel, UiPath Inc., Bpifrance, through its Large Venture fund, Eric Schmidt, Xavier Niel, Amazon, FirstMark, Elaia Partners, Eurazeo and Yuri Milner.本轮的其他参与者包括Bernard Arnault的AglaéVentures,Creandum,Motier Ventures,Samsung和Visionaries Club等。除了投资外,UIPATH和其他战略合作伙伴还与“ H”合作在商业,市场访问和计算合作伙伴关系方面。该公司将在企业和消费者垂直领域建立和商业部署基础行动模型。这些功能包括代理和基于垂直的架构以及能够推理,计划和协作的差异化模型。投资将用于进一步发展公司的研究人才。此外,资本将用于获取大量的计算和数据能力,这些计算和数据能力对于在代理模型领域取得突破至关重要,并支持公司达到完全人工通用情报(AGI)的愿景。H的创始团队将科学家和企业家团结在全球AI创新和可用性的最前沿:
代理系统的演变代表了人工智能和现代软件系统中的一个重要里程碑,这是对针对各种行业量身定制的垂直情报的需求驱动的。这些系统通过适应性,学习和与动态环境的互动来增强业务成果。在这场革命的最前沿是大型语言模型(LLM)代理,它们是这些智能系统的认知骨干。响应着一致性和可扩展性的需求,这项工作可以通过识别核心构建块并提出认知技能模块来定义垂直AI代理设计模式的标准化水平,该模块结合了域特异性,特定于特定的内置界定功能。基于这些基本概念,本文提供了对代理系统的全面介绍,详细介绍了其核心组件,操作模式和实施策略。它进一步探讨了各个行业的实际用例和示例,突出了LLM代理在驱动特定于行业的应用中的变革潜力。
“代理生成式 AI 工作流程与负责任的 AI 框架和集中式数据管理和治理相结合,是通往成功的道路,能够与企业数据无缝交互,通过点击或语音命令提供洞察和下一步最佳行动。百事可乐正在实现这一愿景的道路上前进,在生成式 AI 时代打造数据管理的下一个黄金标准。”
选择AI模型都很重要,因为不同的模型具有不同级别的性能,准确性,可扩展性和调节性依从性。因此,能够以最少的人类参与(幕后主力)的方式来赋予AI独立性实现业务目标的能力。此“代理” AI是从基于知识的,生成的AI驱动的工具到使用基础模型执行复杂的多步工作流,在动态世界中独立交互的系统的发展。
Artificial intelligence (AI) 4 Large language model (LLM) 4 Agentic AI 4 AI safety 4 AI system 5 Algorithm 5 Alignment 5 Application programming interface (API) 5 Automation bias 5 Benchmark 6 Bias 6 Chatbot 6 ChatGPT 6 Claude 6 Cloud computing 6 Cognitive bias 7 Compute 7 Computer vision 7 Context window 7 Copilot for Microsoft 365 7 Data 8 Data science 8 Explainable AI (XAI) 8 Fine-tuning 8 Foundation model 8 Generative AI 8 GPT 9 Guardrails 9 Hallucination 9 Human-in-the-loop 9 Machine learning 9 Modality 10 Model 10 Multi-modal 10 Natural language processing (NLP) 10 Pre-training 10 Prompt 10 Prompt engineering 11 Reinforcement learning 11 Responsible AI 11 Retrieval-augmented generation (RAG) 11 Supervised learning 12 Token 12 Training data 12 Transformer model 12 Unsupervised learning 12 Use case 12
在当今的高风险零售环境中,许多所谓的“动态”定价和促销解决方案无法提供有形的底线结果。主要问题是,定价决策不存在于真空中:它们取决于企业的每个方面,从付出的支出和库存限制到竞争对手的动态和宏观经济趋势。经常,传统工具忽略了相互依赖的网络或依靠通用竞争者数据。他们可能声称自己是“自动化的”,但是他们忽略了替代产品的实时变化,并且无法将内部商店数据之间的点与迅速发展的市场条件联系起来。操作数通过部署摄入和解释所有可用信号的高度智能的代理系统来解决此问题 - 无论是广告平台指标,SKU级库存预测还是动态刮擦的竞争对手价格,以用于语义上的类似产品。在人类的层层层以进行关键监督的支持下,这些试剂确保没有相关数据被忽略。结果是一种全面的,每个月的定价和促销策略,从现实世界的条件中不断学习,并与短期利润目标和长期品牌目标保持一致。本白皮书介绍了Operand的框架如何统一强大的需求建模,多构成优化和代理数据处理,以促进不断变化的零售环境中持续的收入和利润增长。
在本报告中,我们认为某些AI系统在不久的将来有意识和/或稳健的代理有现实的可能性。这意味着AI福利和道德耐心的前景(具有自身利益和道德意义的AI系统)不再是科幻或遥远的未来的问题。对于不久的将来,这是一个问题,AI公司和其他参与者有责任开始认真对待它。我们还建议AI公司和其他参与者可以采取的三个早期步骤:他们可以(1)承认,AI福利是一个重要且困难的问题(并确保语言模型输出相同),(2)开始评估AI系统以证明意识和强大的机构的证据,以及(3)准备与适当的道德相关级别处理AI系统的政策和程序。要明确的是,我们在本报告中的论点不是AI系统肯定是或将是有意识,坚固的代理或在道德上具有重要意义的。取而代之的是,我们的论点是对这些可能性存在实质性不确定性,因此我们需要提高对AI福利的理解以及对这个问题做出明智决定的能力。否则,我们会有很大的风险,我们将对AI福利的决定不当,错误地损害了道德上和/或错误地关心不做的AI系统的AI系统。
现有的信任理论假设受托人具有代理权(即意向性和自由意志)。我们认为,信任人工智能 (AI) 与信任人类之间的一个关键的定性区别在于信任者(人类)对受托人的代理权归因程度。我们指定了两种机制,通过这些机制,代理权归因的程度可以影响人类对人工智能的信任。首先,如果人工智能被视为更具代理性,受托人(人工智能)的仁慈的重要性就会增加,但如果它违反信任(由于背叛厌恶,参见 Bohnet & Zeckhauser,2004),预期的心理成本也会增加。其次,仁慈和能力的归因对于对看似无代理的人工智能系统建立信心变得不那么重要,相反,对系统设计者的仁慈和能力归因变得重要。这两种机制都意味着让人工智能看起来更具代理性可能会增加或减少人类对它的信任。虽然人工智能技术的设计者经常努力赋予他们的作品以传达其仁慈本质的特征(例如通过拟人化或透明度),但这也可能改变代理感知,导致它在人类眼中变得不那么值得信赖。关键词:人工智能;信任;代理;背叛厌恶 JEL 分类:M00、M14、Z10