请不要使用AI作为您的专家证人

我真诚地喜欢大型语言模型,用于集思广益和研究。但是我们需要真正清楚某些事情:大型语言模型无法权衡人类所做的证据或原因,因此您不应将AI响应作为一个合理的结论来加强您的论点。Large语言模型根据语言模式的频率和意见的普遍性来计算响应,而意见的普遍性 - 尤其是关于有意义的话题,与实际真理无关。如果您喂养支持特定职位的LLM文章,并要求它基于它们来制作回应,它将反映出该输入,从本质上回荡您策划的叙述。这种选择性的喂养可以创建一种回声室,在该室中,输出感觉具有权威性,但只是所提供的数据的快照,而不是更广泛的事实。毫无疑问,LLMS在研究和迅速浏览信息方面表现出色,例如综合了有关数字素养的讨论趋势或为文学审查汇总研究的趋势。但是他们无法评估这些信息以实现真实性。他们可能断言某事是真实的,但是他们只是模仿人类对真理的主张,充当“随机鹦鹉”,这些鹦鹉可以根据统计模式进行预测和串在一起,而不是理解或批判性思维的单词。甚至从我能告诉我的“推理”模型,从我能说出的是“推理”模型,从我可以讲的是,在确定基于新的指导方案的较令人印象深刻的工作,以实现令人印象深刻的工作。看起来像Re

来源:Steve Hargadon博客

我真诚地喜欢大型语言模型,用于集思广益和研究。但是我们需要真正清楚某些事情:大型语言模型无法权衡人类的方式证据或原因,因此您不应引用AI响应作为合理的结论来加强您的论点。

大语言模型根据语言模式的频率计算响应,以及意见的普遍性(尤其是在有争议的话题上)通常与实际真相无关。如果您喂养支持特定职位的LLM文章,并要求它基于它们来制作回应,它将反映出该输入,从本质上回荡您策划的叙述。这种选择性喂养可以创建一种回声室,其中输出感觉具有权威性,但只是提供的数据的快照,而不是更广泛的事实。

大语言模型根据语言模式的频率计算响应,以及意见的普遍性(尤其是在有争议的话题上)通常与实际真相无关。如果您喂养支持特定职位的LLM文章,并要求它基于它们来制作回应,它将反映出该输入,从本质上回荡您策划的叙述。 这种选择性喂养可以创建一种回声室,其中输出感觉具有权威性,但只是提供的数据的快照,而不是更广泛的事实。

毫无疑问,LLMS在研究和浮出水面方面表现出色,例如综合有关数字素养的讨论趋势或进行文献综述的研究。但是他们无法评估这些信息以实现真实性。他们可能断言某事是真实的,但是他们只是模仿人类对真理的主张,充当“随机鹦鹉”,这些鹦鹉可以根据统计模式进行预测和串在一起,而不是理解或批判性思维。

毫无疑问,LLMS在研究和迅速浏览信息方面表现出色,