购物中心0.2.0

R和Python的购物中心0.2.0更新为OpenAI和Gemini等外部LLM提供商提供了支持。此版本还具有用于R用户的并行处理,能够在Python的字符串向量上运行NLP以及全新的作弊表。

来源:RStudio AI博客

购物中心使用大型语言模型(LLM)来针对您的数据进行Runnatural语言处理(NLP)操作。此包装可用于R和Python。版本0.2.0分别发布了Tocran和Pypypi。

购物中心 cran PYPI

在R中,您可以使用以下方式安装最新版本。 在Python中, 此版本扩大了可以与购物中心一起使用的LLM提供商的数量。另外,在Python中,它引入了通过字符串向量运行NLP操作的选项,在R中,它可以支持“并行”请求。 宣布该包装的全新作弊表也非常令人兴奋。 ITIS印刷(PDF)和HTML格式可用! 更多LLM提供商 该版本的最大亮点是使用外部llmproviders,例如Openai,Geminiand Anthropic。购物中心使用专门的集成软件包无需逐步撰写集成供应商。 OpenAi 双子座 人类 在R中,购物中心使用Ellmer Packageto与各种LLM提供程序集成。要访问新功能,首先创建聊天连接,然后将其传递给LLM_USE()。这是连接和使用OpenAi的示例: Ellmer 各种LLM提供商 llm_use() install.packages(“ ellmer”)库(Mall)库(ellmer)chat <-chat_openai()#>使用模型=“ gpt-4.1” .llm_use(chat,.cache =“ _MY_CACHE” install.packages(“ ellmer”) install.packages “ Ellmer” 库(购物中心) 库 库(Ellmer) CHAT <-CHAT_OPENAI() < - chat_openai #>使用Model =“ GPT-4.1”。 llm_use(chat,.cache =“ _my_cache”) llm_use .cache = “ _MY_CACHE” #> #>──购物中心会话对象 #>后端:Ellmerllm会话:模型:GPT-4.1R会话:Cache_folder:_MY_CACHE 在Python中,购物中心使用Chatlas作为与LLM的集成点。 Chatlas还集成了Witseveral LLM提供程序。使用,首先实例化Chatlas Chat连接类,然后通过 .llm.use()函数将其传递给Polars数据框架: 来自

在R中,您可以使用以下方式安装最新版本。

在Python中,

此版本扩大了可以与购物中心一起使用的LLM提供商的数量。另外,在Python中,它引入了通过字符串向量运行NLP操作的选项,在R中,它可以支持“并行”请求。

宣布该包装的全新作弊表也非常令人兴奋。 ITIS印刷(PDF)和HTML格式可用!

更多LLM提供商

该版本的最大亮点是使用外部llmproviders,例如Openai,Geminiand Anthropic。购物中心使用专门的集成软件包无需逐步撰写集成供应商。 OpenAi 双子座

人类

在R中,购物中心使用Ellmer Packageto与各种LLM提供程序集成。要访问新功能,首先创建聊天连接,然后将其传递给LLM_USE()。这是连接和使用OpenAi的示例: Ellmer 各种LLM提供商
llm_use()
install.packages(“ ellmer”)库(Mall)库(ellmer)chat <-chat_openai()#>使用模型=“ gpt-4.1” .llm_use(chat,.cache =“ _MY_CACHE” install.packages(“ ellmer”) install.packages “ Ellmer” 库(购物中心) 库(Ellmer) CHAT <-CHAT_OPENAI() < - chat_openai #>使用Model =“ GPT-4.1”。 llm_use(chat,.cache =“ _my_cache”) llm_use .cache = “ _MY_CACHE” #> #>──购物中心会话对象

#>后端:Ellmerllm会话:模型:GPT-4.1R会话:Cache_folder:_MY_CACHE

在Python中,购物中心使用Chatlas作为与LLM的集成点。 Chatlas还集成了Witseveral LLM提供程序。使用,首先实例化Chatlas Chat连接类,然后通过 .llm.use()函数将其传递给Polars数据框架:来自