详细内容或原文请订阅后点击阅览
机制可解释性:法学硕士一探究竟
LLM 的类人认知能力是真是假?信息如何通过神经网络传输?法学硕士里面是否隐藏着知识?《机械可解释性:法学硕士内部窥探》一文首先出现在《走向数据科学》上。
来源:走向数据科学简介
如何检查和操作法学硕士的神经网络。这是机械可解释性研究的主题,它可以回答许多令人兴奋的问题。
请记住:LLM 是一种深度人工神经网络,由神经元和权重组成,权重决定这些神经元的连接强度。是什么让神经网络得出结论?它处理的信息有多少是经过充分考虑和分析的?
至少自从深度神经网络开始展现出希望以来,大量出版物已经对此类问题进行了研究。需要明确的是,机械可解释性在法学硕士出现之前就已经存在,并且已经成为早期深度神经网络可解释人工智能研究的一个令人兴奋的方面。例如,识别触发 CNN 得出给定对象分类或车辆转向方向的显着特征可以帮助我们了解网络在安全关键情况下的可信度和可靠性。
但是有了法学硕士,这个话题才真正开始流行起来,并且变得更加有趣。法学硕士的类人认知能力是真的还是假的?信息如何通过神经网络传输? LLM里面有隐藏的知识吗?
在这篇文章中,您会发现:
在后续文章中,我们将研究 Python 代码来应用其中一些技能、可视化神经网络的激活等。
复习:LLM 的设计
出于本文的目的,我们需要对神经网络中值得关注的点有基本的了解,以便在此过程中获取可能有用的信息。因此,本节是对法学硕士组成部分的快速提醒。
LLM 使用一系列输入标记来预测下一个标记。
如果您希望更多地了解法学硕士的工作原理并获得额外的直觉,Stephen McAleese 的 [6] 解释非常好。
MLP: