获取独家产品信息,尽享促销优惠!立即订阅,不容错过
* 限···时··优惠
Ny studie avslöjar att vissa LLM kan ge vilseledande förklaringar
Microsoft和MIT的研究人员开发了一种确定AI系统何时撒谎或提供误导性解释的方法。当大型语言模型(LLM)为其决策提供合理但不可靠的解释时,这项称为“因果概念忠诚”的新技术可以揭示。 AI的解释AI系统的问题是,Chatgpt和GPT-4可以给出答案的答案[…]新的新研究表明,某些LLLM可以在AI新闻中首次出现误导性解释。