商城网站建设哪家公司好,wordpress 获取图片,可信赖的昆明网站建设,大数据智能营销LLM的训练与推断 目前比较流行的大模型一般都是自回归模型。在推理时#xff0c;它类似于RNN#xff0c;每次计算下一个token的概率。也就是说#xff0c;如果除去最开始的输入情况下#xff0c;最终推理长度为n的话#xff0c;就需要计算n次。但是训练却是并行化的。
在…LLM的训练与推断 目前比较流行的大模型一般都是自回归模型。在推理时它类似于RNN每次计算下一个token的概率。也就是说如果除去最开始的输入情况下最终推理长度为n的话就需要计算n次。但是训练却是并行化的。
在使用transformer库情况下使用以下函数进行推理:
model.generate()某些基础知识可参照轻松上手微调大语言模型——QLORA篇。
虽然推理类似串行模式但是我们仍然可以优化它LLM推理优化——KV Cache篇百倍提速这种后续更新的Blog中会详细解释。
为什么基于Transformer的大模型可以并行训练
在注意力层重使用了因果掩码操作。因果掩码Causal Masking是一个在序列生成任务中非常重要的概念特别是在语言模型的训练和推理过程中。它的主要目的是确保模型在预测下一个词时只能使用之前的词而不能看到后面的词以防止信息泄露或不合理的预测。例如对于输入序列 x [ x 1 , x 2 , x 3 , . . . , x n ] x [x_1, x_2, x_3, ..., x_n] x[x1,x2,x3,...,xn]当模型在预测 x t x_t xt 时因果掩码会遮挡 x t 1 x_{t1} xt1 到 x n x_n xn确保模型只能看到 x 1 , x 2 , . . . , x t x_1, x_2, ..., x_t x1,x2,...,xt。这样模型的输出不会依赖于未来的输入保证了生成过程的一致性。
这也是为什么模型推断时是串行的每次推断 x i 1 x_{i1} xi1都是基于 x 1 : i x_{1:i} x1:i。 用数学公式形式化来讲 x 2 , x 3 , . . . , x t 1 f θ ( x 1 , x 2 , x 3 , . . . , x t ) x_2, x_3, ..., x_{t1}f_\theta(x_1, x_2, x_3, ..., x_t) x2,x3,...,xt1fθ(x1,x2,x3,...,xt)
其中 f θ f_\theta fθ是以 θ \theta θ为参数的LLM。