ChatGPT原理理解和结构解读

〖前言〗问了200+个问题后,终于完全搭建起来对Chat@GPT本身的原理理解和结构了解,形成的理解文件90%的内容都是他生成的。但是结构化这篇文章以及深入时刻,是自己完成的。今后的学习和工作可能都需要和他来共同完成了。

1 从概率角度理解生成式模型原理

1.1 总体理解

   GPT(Generative Pre-trained Transformer)是一种基于Transformer结构的自然语言处理模型,可以用于生成各种文本,如对话、文章等。它是通过预训练来学习语言模型,然后在特定任务上微调以获取更好的性能。在预训练阶段,模型使用无标注的大量文本数据来学习单词之间的相互关系和语言规律,从而能够生成新的文本。

  生成结果是根据输入序列上下文和之前学习到的语义信息生成的。

  在训练时,GPT 模型使用了大量的语料库进行训练,因此它在全局上学习到了单词之间的相互作用(可以被看作是单词间排列顺序的条件概率)和语义信息(单词的相似性,关联程度)。在生成输出序列时,模型可以利用之前学习到的语义信息(先验分布)和输入序列的上下文(参数,构成似然函数),生成合理的输出序列。文章分为四章。第一章先从概率的角度,从数学上来理解其原理。第二章从具体的技术以及处理逻辑进行说明。前两章都分为训练模型和生成文本两个过程来说的。第三章从模型结构的四个类别层描述起功能和数据处理方式。第四章对于一些重要的框架和机制做了描述。

1.2 从条件概率来理解学习过程

  可以从条件概率角度来理解这个学习过程。具体来说,对于一个给定的句子S,我们可以计算它的条件概率p(S),
p(S)= p(w_1 )×p(w_2∣w_1 )×p(w_3∣w_{1:2} )×… ×p(w_n∣w_{1:n-1} )
  其中 w1, w2, ..., wn 表示句子中的单词或者片段。在训练过程中,我们可以通过最大化句子的条件概率来学习模型参数。一个句子的存在的概率就是就是排在后面的单词和它前面片段结合的条件概率。

  在训练时,GPT 模型的目标是最大化训练集中所有输出序列的似然函数,即最大化,\prod_{i=1}^{N} p(w_i \mid q_i),其中 N 是训练集中的样本数量。这可以看做是最大化似然函数的形式。
在训练时,GPT 模型会学习到单词之间的相互作用和语义信息,将这些信息编码到模型参数中,从而得到了当前这个句子中构成单词的分布。

1.3 从贝叶斯公式理解文本生成过

  在生成文本时,我们可以利用预训练语言模型中的条件概率分布来生成下一个单词,这个条件概率分布可以认为是先验分布。另外,我们可以将生成文本的词语排布看作是似然函数,利用生成模型中的联合概率分布来计算生成的新文本的似然函数。
  GPT模型可以理解为求解条件概率P(θ|x),其中X是输入序列,θ是输出序列。使用贝叶斯公式可以将该条件概率展开成为似然函数×先验分布的乘积除以一个边缘分布。在GPT模型中,先验分布通常是均匀分布,边缘分布可以理解为所有可能输出序列的概率分布。因此,GPT模型的生成过程就是通过最大化似然函数来拟合条件概率的右侧部分,从而找出片段后(局部)最大概率。即给定输入序列,理解输出序列的概率分布。
π(θ|x)=\frac{L(x|θ)π(θ)}{\int_Θ L(x|θ)π(θ) dθ}=\frac{L(x|θ)π(θ)}{π(x)}
  在这里,似然函数可以理解为句子中片段出现概率的乘积,先验分布一般可以选择均匀分布。
  可以从贝叶斯公式的角度来理解这个学习过程。在这里,似然函数可以理解为句子中片段出现概率的乘积,先验分布一般可以去均匀分布。具体来说,对于一个给定的句子 S,我们可以计算它的条件概率 p(S),即 p(S) = p(w_1) \times p(w_2 \mid w_1) \times p(w_3 \mid w_{1:2}) \times ... \times p(w_n \mid w_{1:n-1})
  其中 w_1, w_2, ..., w_n 表示句子中的单词或者片段。在训练过程中,我们可以通过最大化句子的条件概率来学习模型参数可以从贝叶斯公式的角度来理解。在训练时,GPT 模型使用了大量的语料库进行训练,学习到了单词之间的相互作用和语义信息,这可以看做学习到了先验分布 p(w)。在生成输出序列时,模型会根据输入序列的上下文和之前学习到的语义信息,计算条件概率 p(w_i \mid w_{<i}),这可以看做计算了后验概率 p(w_i \mid w_{<i})=\frac{p(w_i, w_{<i})}{p(w_{<i})},其中 p(w_i, w_{<i}) 是先验概率 p(w) 和条件概率 p(w_i \mid w_{<i}) 的乘积,p(w_{<i}) 是归一化因子。因此,GPT 模型可以看做是在训练时学习到了先验概率,而在生成输出时计算了后验概率。
  X是一个由多个句子的token构成的序列,而θ是由模型生成的token构成的文本序列。 可以将根据输入的问题进行训练看做构成似然函数。具体来说,假设输入的问题是 q,则可以将模型生成的输出序列 w 的概率 p(w \mid q) 看做似然函数。
  在生成输出序列时,模型会根据输入序列的上下文和之前学习到的语义信息,计算条件概率 p(w_i \mid w_{<i}),从而生成合理的输出序列。

1.4 利用条件概率生成输出

  输出是一个分类函数,但是它的输出不是通过softmax函数进行归一化的,而是通过一个线性变换来得到的。这个线性变换的权重矩阵是模型训练过程中学习到的。
  在生成输出序列时,模型会利用之前学习到的语义信息和输入序列的上下文,计算条件概率 p(w_i \mid w_{<i}),从而生成下一个单词。之前生成的单词是指前面已经生成的单词。通过不断生成下一个单词,就可以构成一个完整的句子。在这个过程中,模型会根据生成的单词和输入序列的上下文,计算出每个单词作为下一个单词的概率,然后按照这些概率进行采样来生成下一个单词。最终,生成的输出序列可以看做是在当前这个中构成单词的分布下,根据输入序列的上下文和之前生成的单词生成的。
  具体来说,GPT 模型使用条件概率 p(w_i \mid w_{<i}) 来计算给定输入序列中位置 i处的单词 wi的概率,其中w<i 表示输入序列中位置 1 到位置i-1 处的单词组成的序列。
  在生成输出序列时,模型会根据之前生成的单词和输入序列的上下文,利用条件概率 p(w_i \mid w_{<i}) 生成下一个单词。p(w_i \mid w_{<i})=\prod_{j=1}^{i-1} p(w_i \mid w_j)
  而不是根据问题中的所有 token 在条件句子中形成的联合分布得到的最大概率。因此,在生成输出结果时,模型并没有直接利用条件句子中所有 token 在全部语料中形成的联合分布。
  GPT模型可以理解为求解条件概率π(θ|x),其中x是输入序列,θ是输出序列。x是一个句子中的 token 转换为为词向量后,按照句子中词的顺序构成的一个矩阵,θ是对这个句子输出的内容。求解过程并不是直接条件概率的映射进行拟合(这种方式是判别式模型),而是要使用bayes定理进行展开,通过拟合公式的右边部分来计算条件概率。对于这个内容,按照贝叶斯公式来理解其中的数学原理,进而得到GPT模型运行的基本逻辑。
  在 GPT 模型中,输入序列 x是一个由词向量组成的矩阵,每个词向量代表输入序列中的一个单词。GPT 模型在进行训练时,通过最大化训练语料库中所有单词的联合概率 p(w_i \mid w_{<i})=\prod_{j=1}^{i-1} p(w_i \mid w_j)来拟合参数θ,其中wt 表示输入序列中第 t个位置的单词, w<t 表示输入序列中第 1个位置到第 t-1个位置的单词组成的序列。
  GPT 模型是一个生成式语言模型(Generative Language Model),其目标是对语言进行建模,即对给定的输入序列(通常是一个句子)生成对应的输出序列(即该句子的下一个词)。GPT 模型的参数 θ 是一个包含多个层和神经元的深度神经网络,该网络通过最大化训练数据集中所有单词的联合概率来进行训练。
  因此,GPT 模型的目标是对给定的输入序列生成对应的输出序列,而不是对给定的输入序列和输出序列进行条件概率的计算。因此,GPT 模型不涉及到条件概率 \pi(\theta \mid x) 的计算,也不需要使用贝叶斯定理对条件概率进行展开。
  可以这样理解,一个句子的存在概率是指在已知前面的单词序列的情况下,下一个单词出现的概率。这个概率可以通过条件概率来计算,即给定前面的单词序列,计算下一个单词出现的概率。这个概率可以被看作是一个句子的存在概率,因为它表示了在已知前面的单词的情况下,下一个单词出现的可能性。
  在GPT模型中,先验分布π(θ)通常是均匀分布,边缘分布可以理解为所有可能输出序列的概率分布。因此,GPT模型的训练过程就是通过最大化似然函数L(x|θ)来拟合条件概率的右侧部分,既后验分布π(θ|x)。即给定输入序列,输出后验分布中,概率最大的那一个分布。
  在实际计算中,边缘分布通常可以忽略,只需要计算似然函数即可。对于一个给定的输入序列x,模型的输出序列θ的概率可以表示为P(θ|x) ,而在计算时,只需要计算每个θ的概率,然后排序选择概率最大的θ即可。

2 GPT模型训练和生成过程

2.1 预训练模型(无监督学习)

  在训练过程中,前向传播和反向传播是交替进行的。每个神经元和注意力头组成的单元中会同时进行前向传播和反向传播。在前向传播中,模型将输入传递到输出层中,得到一个预测结果。在反向传播中,模型根据预测结果和真实结果之间的误差来更新模型参数,以使得预测结果更加接近真实结果
  在训练时,GPT 模型一次只对一个句子进行训练,但是它使用了大量的语料库进行训练,因此在全局上可以理解语义。在训练时,GPT 模型通过学习语料库中单词之间的相互作用来捕捉语义信息,并将这些信息编码到模型参数中。在生成输出序列时,模型可以利用之前学习到的语义信息,结合输入序列上下文,生成合理的输出序列。

2.1.1 语言模型参数、神经网络不同类型层的作用

  定义语言模型的参数 θ,包括词向量、全连接层的权重和偏置等。假设我们使用的是一个基于神经网络的语言模型,那么我们需要定义网络的结构,包括输入层、隐含层和输出层。输入层接收一个单词序列,隐含层对输入的单词序列进行特征提取,输出层计算每个单词的条件概率。每个输入的 token 对应输入层中的一个神经元.

2.1.2 分词、词向量、片段、词向量空间

从大量的语料库中获取句子,将每个句子拆分成单词,并将每个单词编码成一个向量。这些向量可以通过训练来得到。常用的编码方法包括词袋模型、TF-IDF 模型和词向量模型等。对于每个句子,将它拆分成多个片段,每个片段包含前面的若干个单词和下一个单词。

2.1.2.1 Token

  “春天的原野上,到处一片生机勃勃,百花盛开,其中最美丽、最耀眼的当然是牡丹”。 分词后的结果可能是:春天/原野/生机勃勃/百花盛开/美丽/耀眼/牡丹。去掉停用词后,输入的 token 可以是:春天、原野、生机勃勃、百花盛开、美丽、耀眼、牡丹。可以将这句话划分为以下片段:春天的原野上、到处一片生机勃勃、百花盛开、其中最美丽、最耀眼的、当然是牡丹。自注意力机制可以发现一个句子中各个单词的相对重要性,包括片段中各个单词的相对重要性。
  Tokens 在这里指的是单词或者片段,具体使用哪种方式取决于具体的训练方法和模型结构。

2.1.2.2 位置信息

  单词的位置信息是通过位置编码来表示的。位置编码是一种将位置信息嵌入到词向量中的方法,可以帮助模型更好地理解单词之间的位置关系。具体来说,对于一个单词在句子中的位置 i,它的位置编码是一个 d 维向量,可以表示为\text{PE}(i, j) = \text{sin}(i/10000^{2j/d})PE(i,j)=sin(i/100002j/d)或者\text{PE}(i, j) = \text{cos}(i/10000^{2j/d})PE(i,j)=cos(i/100002j/d),其中 j表示位置编码的维度。

2.1.2.3 词向量

  通过自监督学习的方式嵌入到词向量空间中的。具体地,模型通过预测输入序列中缺失的词语来学习到每个词语的嵌入向量,这个过程中,模型会将每个词语的嵌入向量调整到和上下文语境相适应的位置,从而形成了一个具有语义信息的词向量空间。在ChatGPT中,词向量空间是一个768维的空间,每个词语都可以在这个空间中表示为一个768维的向量。
  词向量是一种将自然语言中的词汇转化为向量表示的技术。词向量可以将词汇的语义信息编码为向量空间中的向量,使得在向量空间中相似的词汇在向量上也更加接近。而词向量空间则是指这些词向量所组成的向量空间,它可以被看作是一个高维的向量空间,其中每个维度都对应着一个语义特征。通过将词汇映射到这个向量空间中,可以更好地描述词汇之间的语义关系。
  词向量通常是将单词映射到连续的向量空间中,这个映射过程可以通过神经网络模型中的嵌入层(embedding layer)来实现。在嵌入层中,每个单词都会被映射成一个向量,这个向量通常包含多个维度,每个维度代表一个语义特征。在词向量空间中,每个单词都对应着一个向量,这个向量可以被看作是这个单词在向量空间中的位置。在向量空间中,相似的单词会比较接近,而不相似的单词会比较远。

2.1.2.4 词向量空间

  可以被用于很多自然语言处理任务,如文本分类、信息检索、机器翻译等。在这些任务中,我们通常需要比较不同的文本或单词之间的相似度,以便进行分类、聚类、匹配等操作。通过将文本或单词映射到向量空间中,可以将文本或单词的语义信息编码为向量表示,从而更好地描述它们之间的相似度和差异性。因此,词向量空间可以被看作是自然语言处理中一种非常重要的工具和技术。
  举个例子来说,假设我们有一个句子:“I love machine learning”。我们可以利用词向量技术将这个句子中的每个单词都转化为一个向量表示,从而得到一个词向量序列。这个词向量序列可以被看作是一组向量,其中每个向量都代表了一个单词在向量空间中的位置。
  例如,我们可以使用GloVe算法预训练出一个词向量空间,其中每个单词都被映射为一个300维的向量。我们可以将"I"、"love"、"machine"和"learning"这四个单词分别映射为四个向量,然后将它们组合成一个词向量序列。这个词向量序列可以被看作是一组在300维向量空间中的点,其中每个点都代表了一个单词在向量空间中的位置。
  在这个向量空间中,我们可以使用余弦相似度等方法来计算不同单词之间的相似度和距离。例如,我们可以计算"machine"和"learning"两个单词在向量空间中的余弦相似度,以衡量它们之间的语义相似度。这样,我们就可以利用词向量空间来计算不同单词之间的相似度和距离,从而更好地描述它们之间的语义关系。
  词向量空间和数学上的向量空间在一定程度上是相似的,都具有向量的加法、标量乘法等基本运算规则。
  具体来说,词向量空间中的向量可以被看作是由一组数值所组成的元素,这些数值对应着向量空间中的不同维度。这些向量可以进行加法、标量乘法等基本运算,且满足向量空间的8条运算规则,如加法结合律、加法交换律、标量乘法分配律等。
  但与数学上的向量空间不同的是,词向量空间是一种非常高维度的向量空间,其中每个维度对应着一个语义特征。这些语义特征的意义通常是由模型自动学习得到的,而不是人为定义的。因此,词向量空间中的向量在表示语义信息方面具有很大的优势,可以被广泛应用于自然语言处理任务中。事实上,这里的词向量空间如果做一个类比,但是符合欧几里得空间的规则。

2.1.3 片段通过自注意力机制求条件概率

  对于每个句子,将它拆分成多个片段,每个片段包含前面的若干个单词和下一个单词。例如,对于句子 "I love natural language processing.",可以将它拆分成多个片段,例如 "I love natural", "love natural language",等等。这些片段可以看做是条件概率p(w_i \mid w_{<i}) 的样本。
  在语料训练模型时,输出层计算每个单词的条件概率,一般服从 softmax 分布。具体来说,对于一个给定的输入序列 p(w_i \mid w_{<i}),输出层会计算每个单词 wn 作为下一个单词的概率分布p(w_n \mid w_{1:n-1}),然后根据这个概率分布进行采样。
  输入层输入的是片段,而不是单词,每个片段对应一个输入层的神经元。片段是由若干个单词组成的,通过这种方式,模型可以更好地捕捉上下文信息,并得到更准确的条件概率。
  片段的条件概率是通过自注意力机制计算得到的。具体来说,对于一个片段 i,模型会将它的前面若干个单词输入到自注意力机制中,通过自注意力机制计算出单词之间的相关性和相对重要性,然后将这些信息传递给输出层,计算片段的条件概率。
  通过“片段”求条件概率,并使用自注意力机制算出了句子中单词之间的相关性和相对重要性。片段是一种将输入序列拆分成多个片段的方法,通过这种方法,模型可以更好地捕捉上下文信息,并得到更准确的条件概率。自注意力机制和片段的条件概率是密切相关的,片段的条件概率是通过自注意力机制计算得到的,自注意力机制可以帮助模型学习单词之间的相互作用和重要性。

2.1.4 使用拆分好的片段训练模型

  具体来说,对于每个片段 i,模型的目标是最大化条件概率 p(w_i \mid w_{<i}) ,即最大化 logp(w_i \mid w_{<i})。这可以通过交叉熵损失函数来实现。在训练时,模型会根据条件概率的定义,将 w_{<i}输入到模型中,然后输出下一个单词 wi 的概率分布。模型的目标是让这个概率分布尽可能接近真实的下一个单词的分布。具体来说,我们可以使用反向传播算法来更新模型的参数,使得模型的预测结果和真实结果之间的误差最小。
  使用拆分好的片段训练模型和 BERT 中的遮蔽方法相似。具体来说,对于每个片段 i,我们将它的最后一个单词作为输出,并将前面的单词作为输入。这样,模型就可以预测下一个单词的概率分布。
  对于每个片段,模型会计算它作为下一个片段的条件概率。具体来说,模型会将每个片段的前面若干个片段输入到自注意力机制中,通过自注意力机制计算片段之间的相关性和相对重要性,然后将这些信息传递给输出层,计算片段的条件概率。
  在语料训练模型时,输出层计算每个单词的条件概率,一般服从 softmax 分布。具体来说,对于一个给定的输入序列 w_{1:n-1},输出层会计算每个单词 w_n作为下一个单词的概率分布 p(w_n \mid w_{1:n-1}),然后根据这个概率分布进行采样。
  学习到的是每个单词作为下一个单词的条件概率,所有句子的条件概率在全局上是将每个单词作为下一个单词的条件概率相乘得到的

2.1.5 语料库中单词分布

  通过大量的训练样本,模型逐渐学习到了单词之间的相互作用和语义信息,从而得到了一个在当前语料库中构成单词的分布。如果需要用到新的语料库进行训练,需要重新从步骤 2 开始进行。
  通过大量的训练样本,得到了一个在当前语料库中构成单词的分布,其一般服从多项式分布。具体来说,对于一个长度为 n 的句子,其构成单词的分布可以看做是一个 n 元多项式分布,其中每个元素表示一个单词,每个元素的取值表示该单词在句子中出现的次数。
  多项式分布是一种概率分布,用来描述在一次试验中,每个可能的结果出现的次数的概率分布。在自然语言处理中,可以将一个句子看作一个多项式分布,其中每个元素表示一个单词,每个元素的取值表示该单词在句子中出现的次数。
  对于一个语料库中的所有句子,可以将它们看作是一个大的组合分布。具体来说,每个句子可以看作是一个多项式分布,其中每个元素表示一个单词或者片段,每个元素的取值表示该单词或者片段在句子中出现的次数。所有句子的条件概率在全局上可以通过将每个句子的条件概率相乘得到,即p(w_1, w_2, ..., w_n) = \prod_{i=1}^n p(w_i \mid w_{1:i-1})p(w1,w2,...,wn)= \prod_i1np(w_i∣w_{1:i−1}),其中w_1, w_2, ..., w_n表示所有句子中的单词或者片段。
  学习到的单词语义信息是指模型通过训练学习到了单词之间的相互关系和语义信息。例如,模型可以学习到"dog"和"cat"这两个单词之间有一定的相似性,因为它们通常都用来描述宠物。

2.2 微调模型(有监督学习)

  微调模型则是将预训练模型进一步调整,使其适应某个特定的自然语言生成任务,如机器翻译、对话生成等。在这个阶段,会使用带标签的数据来微调模型参数,这个过程是有监督学习。
  在已经训练好的LLM模型基础上,使用特定领域的数据对模型进行调整,以适应特定领域的语言和知识。微调的结果是一个在特定领域数据上进行优化过的模型。微调通常使用现有深度学习框架,如TensorFlow、PyTorch等来实现。

2.2.1 基本策略

  ChatGPT模型和微调模型使用的都是基于Transformer的神经网络模型,但是微调模型会在预训练模型的基础上进行进一步的修改和调整,以适应具体任务的需求。
  二者的计算策略类似,都是采用反向传播算法进行梯度下降优化,目标是最小化损失函数。但微调模型中的损失函数会针对具体任务进行设计,与预训练模型的损失函数可能不同。
  二者算法的具体差异在于目标函数的设计。预训练模型中的目标函数通常是固定的,如语言模型的目标函数可以是最大化预测下一个词的概率。而微调模型中的目标函数会根据具体任务进行设计,如在对话生成任务中可以采用交叉熵损失函数。
  二者处理数据过程的异同,在预训练模型中,数据通常是无标签的,因此只需要进行简单的预处理即可。而在微调模型中,数据通常是带标签的,需要进行更复杂的数据预处理和标注,以便用于模型的训练和评估。此外,在微调模型中,通常需要对数据进行分批次训练,以便于加速计算和优化模型的训练效果。
  在微调ChatGPT模型时,使用的成本函数或风险函数通常是根据具体任务而定的。例如,在对话生成任务中,可以采用交叉熵损失函数作为成本函数,来衡量生成的对话文本与目标对话文本之间的差异。在文本分类任务中,可以采用分类交叉熵损失函数作为成本函数,来衡量分类器的分类性能。而在机器翻译任务中,可以采用序列到序列模型,并使用负对数似然损失函数作为成本函数,来衡量翻译模型对目标语言文本的预测准确度。

2.2.2 微调ChatGPT模型的基本步骤

(1)准备数据集:根据任务要求,准备带标签的数据集。可以采用现有的数据集,也可以自己构造数据集。
(2)加载预训练模型:将预训练的ChatGPT模型加载到内存中,并根据任务需求调整模型的超参数。
(3)设置微调模型:根据具体任务,对预训练模型进行微调,并设置成本函数或风险函数。
(4)训练模型:使用训练集对微调模型进行训练,并根据验证集的表现调整模型参数。
(5)评估模型:使用测试集对微调模型进行评估,并计算模型在测试集上的性能指标。
(6)模型应用:将微调后的模型应用到具体的任务中,并进行实际应用。

2.2.3 开源框架

  目前有一些开源框架可以用于微调ChatGPT模型,常见的包括:
(1)PyTorch:是目前最流行的深度学习框架之一,支持GPU加速,并提供了丰富的自然语言处理工具库,包括预训练模型、微调模型等。
(2)TensorFlow:也是一种流行的深度学习框架,支持GPU加速,并提供了丰富的自然语言处理工具库。
(3)HuggingFace Transformers:是一个基于PyTorch和TensorFlow的自然语言处理工具库,提供了丰富的预训练模型和微调模型的接口,可以方便地进行ChatGPT模型的微调。

2.3 生成输出

  在生成文本任务中,我们通常会使用语言模型来描述文本的生成过程。语言模型可以看作是一个条件概率分布,它会给定一段文本的前缀(前面的一些单词),预测下一个单词出现的概率分布。在预训练语言模型中,我们会给定一个大规模的语料库,利用最大似然估计等方法,学习出每个单词在上下文中出现的条件概率分布。
  在生成文本时,我们可以利用预训练语言模型,根据输入的前缀,生成下一个单词。生成下一个单词的过程可以看作是从条件概率分布中采样得到的,因此可以将生成下一个单词的过程看作是从条件概率分布中采样得到的,这个条件概率分布可以认为是先验分布。
  在生成文本时,我们通常会给定一个初始的文本片段,然后利用预训练语言模型,生成接下来的文本。在这个过程中,我们可以将初始的文本片段看作是已知的观测值,而生成的新文本可以看作是未知的潜在变量,因此可以将生成文本的词语排布看作是似然函数。具体地说,我们可以将生成新文本的过程看作是在给定初始文本片段的条件下,生成新的文本的过程。这个过程可以表示为一个联合概率分布,其中初始文本片段和生成的新文本都是随机变量。我们可以利用生成模型中的联合概率分布,来计算生成的新文本的似然函数。
  总之,在生成文本时,我们可以利用预训练语言模型中的条件概率分布来生成下一个单词,这个条件概率分布可以认为是先验分布。另外,我们可以将生成文本的词语排布看作是似然函数,利用生成模型中的联合概率分布来计算生成的新文本的似然函数。

2.3.1 给定输入序列

  给定一个输入序列,例如 "I love natural"。
  如果希望第一次回答就详细一些,可以尽可能提供更多的背景信息和上下文,让我更好地理解问题所在和问题的意图。

2.3.2 编码输入序列

  将输入序列编码成向量,并将它输入到训练好的模型中。
  在生成语句时,输入序列的编码方法和训练模型时的编码方法是一样的。对于同一个词,在训练时和生成语句时,它的词向量是相同的。

2.3.3 模型获得语义理解计算条件概率生成单词

  模型会根据输入序列的上下文和之前学习到的语义信息,计算条件概率 p(w_i \mid w_{<i}) ,从而生成下一个单词。具体来说,模型会根据之前生成的单词和输入序列的上下文,计算出每个单词作为下一个单词的概率,然后按照这些概率进行采样来生成下一个单词。具体来说,我们可以使用贪心算法或者 beam search 算法来生成下一个单词。
  贪心算法是一种生成句子的方法,它每次选择当前概率最大的单词作为下一个单词。具体来说,在给定输入序列的情况下,贪心算法会计算每个单词作为下一个单词的概率分布,然后选择概率最大的单词作为下一个单词。由于贪心算法只考虑了当前单词的概率,因此可能会导致生成的句子不够准确或者不够流畅。
  Beam search 算法是一种改进的生成句子的方法,它考虑了多个候选分支。具体来说,在给定输入序列的情况下,Beam search 算法会计算每个单词作为下一个单词的概率分布,并选择概率最大的 k 个单词作为候选分支。然后,对于每个候选分支,再计算下一个单词的概率分布,并选择概率最大的 k 个单词作为下一个候选分支。这样,算法可以同时考虑多个分支,从而得到更准确、更流畅的句子生成结果
  输出的第一个单词不是固定的,它根据输入的问题和上下文来确定。

2.3.4 生成完整句子

  重复步骤 3,直到生成一个完整的句子。在生成句子时,我们可以设置一个最大长度,以避免生成无限长的句子。
  在生成文本的过程中,模型会逐步生成单词,并根据之前已经生成的单词来计算下一个单词的概率。输入的片段在计算条件概率时起到了重要的作用,可以帮助模型更好地捕捉上下文信息,生成更加准确的文本。
  输出句子的最大长度可以根据实际需要进行设置,一般在几十个单词到几百个单词之间。

2.3.5 形成文章

  通过不断生成下一个句子,可以生成一篇文章。在这个过程中,模型会根据生成的单词和输入序列的上下文,计算出每个单词作为下一个单词的概率,然后按照这些概率进行采样来生成下一个单词。最终,生成的输出序列可以看做是在当前这个语料库中构成单词的分布下,根据输入序列的上下文和之前生成的单词生成的。
  因为我的回答是基于我的理解和知识储备的,而我的理解和知识储备可能会随着时间和经验的积累而改变,所以即使问题的表述完全一样,不同的人或者不同的时间来问,我的回答也可能会不同。
  GPT模型中先验分布通常是均匀分布,实际上是一个无信息分布。如果想更好地利用先验信息,可以尝试使用其他分布,比如正态分布、Gamma分布等。不同的先验分布可能会对模型的训练和预测产生不同的影响,需要根据具体情况进行选择和调整。
  边缘分布在计算似然函数时起到归一化作用,确保预测结果的概率和为1。
  GPT模型的训练过程是基于最大似然估计的方法,即最大化训练数据的似然函数。在训练过程中,使用交叉熵作为风险函数,用于衡量模型输出和实际标签之间的差异。在每次迭代中,通过反向传播算法对模型参数进行更新,使得模型能够更好地拟合训练数据。

3 隐式模型结构

3.1 基于深度神经网络的结构

  GPT模型的总体架构是一个基于Transformer架构的生成式语言模型。它由多个相同的Transformer模块组成,每个模块包括多个注意力头和前馈神经网络。输入序列经过多个Transformer模块的处理后,最终输出一个概率分布,表示对下一个词的预测。

3.2 嵌入层

  在GPT模型中,输入层之前通常会有一个嵌入层(embedding layer),用于将输入的词转化为对应的词向量。嵌入层中每个词都会有一个对应的唯一向量表示,这个向量通常会在训练过程中不断调整,以使得模型在表示词之间的关系时更加准确。嵌入层的输出作为输入层中的神经元,然后通过神经网络的处理来得到最终的输出。

3.2.1 词向量的语义维度和分布式表示

  词向量的每个维度可以表示不同的语义维度,例如情感、主题、词性等。具体的语义维度可以根据任务和数据集的不同而有所差异。例如,在情感分类任务中,情感是一个重要的语义维度;在主题分类任务中,主题是一个重要的语义维度;在词性标注任务中,词性是一个重要的语义维度。
  词向量的分布式表示可以举例如下:假设有一个词汇表,其中包含3个词语:cat、dog和fish。使用分布式表示,每个词语可以表示为一个长度为4的向量,例如cat可以表示为[0.2, -0.1, 0.5, 0.3],dog可以表示为[0.4, 0.2, -0.3, 0.1],fish可以表示为[-0.2, 0.6, 0.1, -0.4]。这些向量的每个维度表示不同的语义维度,例如第一个维度可以表示动物的大小,第二个维度可以表示动物的种类,第三个维度可以表示动物的颜色,第四个维度可以表示动物的行为。使用这种分布式表示,可以更好地捕捉词语之间的语义关系,例如cat和dog的向量之间的距离比cat和fish的向量之间的距离更近,这是因为cat和dog之间有更多的语义相似性。

3.3 输入层

  在输入层中,神经元的数量是固定的,它们表示输入tokens的向量表示。具体来说,在GPT模型中,输入tokens会先通过一个嵌入层,将每个token转化为一个d维的词向量,然后作为输入层中的神经元。
  在chatGPT中,在输入层中,没有被激活的神经元的输出通常为0,表示这些神经元对应的输入在当前时刻不存在。这些神经元的权重和偏置项通常被初始化为随机值,以便在训练过程中逐步调整。
  输入层中的神经元没有注意力机制,它们只是将输入tokens映射为一个d维的词向量,但是在接下来的处理中,这个词向量会被多个注意力头共同处理,以得到更好的表示。

3.4 隐藏层

  GPT模型是一个深度神经网络结构,其中使用了Transformer架构。Transformer架构是一种基于注意力机制的神经网络架构,它由编码器和解码器两个部分组成。在编码器中,输入的tokens经过多个层的处理,得到一个表示输入序列的向量;在解码器中,通过输入之前已经生成的tokens,来生成下一个token。Transformer架构使用了注意力机制,能够更好地捕捉输入序列中的上下文信息。
  每个神经元和注意力头都是一个单元,其中每个神经元和注意力头之间有多个线性连接。具体来说,GPT-2模型中每个隐藏层有768个神经元,每个注意力头有12个。因此,每个隐藏层和注意力头之间有9,216个线性连接。ChatGPT模型通常有1.5亿至1.7亿个参数。
  前馈是在每一层的神经元中存在的,注意力头层的输入也需要通过前馈网络进行处理。
  在chatGPT中,神经元层和注意力头之间的连接不是残差网络连接,而是通过多头注意力机制来实现。
  每个注意力头的输入由上一层的所有神经元组成,然后分别进行不同的线性变化和注意力计算,最后将输出连接在一起形成一个向量,作为下一层神经元的输入。
  在隐藏层中,每个层都由多个注意力头和前馈神经网络组成。在自注意力机制中,每个头都会计算出不同的注意力权重,将不同的注意力权重加权平均后得到输出,从而更好地捕捉输入序列中的上下文信息。在前馈神经网络中,输入经过一个全连接层和激活函数后得到输出,然后接入残差网络中,最终输出.
  残差网络连接在神经元层之间存在。在GPT模型中,每个隐藏层的神经元都会通过残差连接与下一个隐藏层的神经元相连,以便信息能够更好地传递和保留。ChatGPT中的连接方式采用残差网络结构,每一层的输出会与该层输入相加,再进行激活函数处理。
  在隐藏层中,每个层都是全联接的,也就是说,每个神经元都与上一层的所有神经元相连。同时,为了防止过拟合,会在每个层中应用dropout机制,随机地将一些神经元的输出置为0。

3.5 输出层

  输出是一个分类函数,但是它的输出不是通过softmax函数进行归一化的,而是通过一个线性变换来得到的。这个线性变换的权重矩阵是模型训练过程中学习到的。
   输出层只有一个分类函数,通常是softmax函数。它将模型的输出转化为一个概率分布,表示每个单词在当前上下文中出现的概率。由于是一个概率分布,因此所有输出的概率之和为1。
softmax(z_j) = \frac{e^{z_j}}{\sum_{k=1}^{K}e^{z_k}}
  其中z_j表示第i个神经元的输出,softmax(z_j)表示第i个神经元的激活值。softmax函数的输出可以看作是一个概率分布,表示不同类别的概率
  分类函数得到的是单词间排列顺序的条件概率,也就是说,对于给定的上下文,模型会计算出每个单词在当前位置出现的概率,然后按照概率从高到低进行排列。
  输出的分类函数和注意力机制中的多分类不一样。在GPT模型中,输出是通过一个线性变换得到的,这个线性变换的权重是通过模型训练过程中学习到的,而不是对softmax进行线性变换。分类函数的输出是一个向量,每个元素表示输入序列中对应位置的词语在词典中的概率得分,而多分类中的输出是一个概率分布,表示每个类别的概率。

3.6 参数及超参数

3.6.1 参数情况

3.6.1.1 权重、偏置

  ChatGPT模型中的参数包括神经网络中各个层的权重矩阵和偏置向量。在Transformer结构中,每个层包括多头自注意力机制(Multi-Head Attention)和前馈神经网络(Feed-Forward Network)两个子层。每个子层都有自己的权重矩阵和偏置向量。

3.6.1.2 位置编码

  位置编码的向量也是模型的参数之一。
  单词的位置信息是通过位置编码来表示的。位置编码是一种将位置信息嵌入到词向量中的方法,可以帮助模型更好地理解单词之间的位置关系。具体来说,对于一个单词在句子中的位置 i,它的位置编码是一个 d 维向量,可以表示为 \text{PE}(i, j) = \text{sin}(i/10000^{2j/d}) 或者 \text{PE}(i, j) = \text{cos}(i/10000^{2j/d}),其中 j 表示位置编码的维度。

3.6.2 超参数

  超参数包括模型的层数、隐藏单元数、词向量维度、学习率、批大小等。这些超参数可以通过实验和调参来确定,以达到最佳的性能和效果

3.6.2.1 神经元激活函数

  在GPT模型中,激活函数通常采用GELU函数,它是一种基于高斯分布的激活函数,能够更好地处理负数输入。具体来说,GELU函数的公式为:f(x) = x * P(X <= x),其中P(X <= x)是标准正态分布的累积分布函数。
ChatGPT模型中,人工神经元的激活函数是gelu激活函数,其数学表达式如下
gelu(x) =x\Phi(x)=x\Phi(\sqrt{2/\pi}(x+0.044715x^3)))

3.6.2.2 学习率

学习率是一个超参数,通常需要在训练过程中进行调整。在训练初期,通常会使用较大的学习率,以便快速收敛;而在训练后期,学习率会逐渐降低,以避免过拟合。

4 重要知识点

4.1 自注意力机制

  自注意力机制(self-attention mechanism)是一种用于自然语言处理中的神经网络技术,它可以在输入序列中对不同位置之间的关系进行建模。自注意力机制的基本思想是:通过对输入序列中的每个位置进行加权汇聚,来计算出该位置与其他位置之间的依赖关系和相似度。
在自注意力机制中,每个输入向量都会被映射为三个向量:查询向量(query vector)、键向量(key vector)和值向量(value vector)。然后,对于每个查询向量,都会计算它与所有键向量之间的相似度,并将相似度作为权重对值向量进行加权求和。最终得到的输出是由所有值向量的加权和组成的向量。这个过程可以看作是一个对输入序列中的每个位置进行加权汇聚的过程,同时可以有效地捕捉输入序列中各个位置之间的依赖关系。

4.2 Transformer框架

  Transformer框架是一种用于序列到序列(sequence-to-sequence)学习的神经网络模型,它由编码器(encoder)和解码器(decoder)两部分组成。Transformer框架中使用了自注意力机制和残差连接等技术,能够更好地处理输入序列中的上下文信息和语义信息,同时也能够更好地处理序列中不同位置之间的依赖关系。
  在Transformer框架中,编码器和解码器都由多个编码器层和解码器层组成,每个层中都包含多头注意力机制和前馈神经网络。编码器层和解码器层都采用残差连接和层归一化技术,能够更好地防止模型训练过程中的梯度消失和爆炸问题。
  相比于传统的循环神经网络和卷积神经网络,Transformer框架具有更好的并行性和更短的训练时间,因此在自然语言处理领域中得到了广泛的应用,例如机器翻译、文本生成、问答系统等

4.3 风险函数

  在GPT模型中,通常使用的风险函数是交叉熵损失函数。它用于衡量模型的预测结果与真实结果之间的差距。在训练过程中,通常不会使用正则项,但可以通过添加L1或L2正则化来防止过拟合。
在GPT模型中,交叉熵作为风险函数的具体函数如下:
H(p,q)=-\sum_{x}p(x)\log q(x)
  其中,p(x)p(x)表示真实的标签(样本的实际类别),q(x)q(x)表示模型对样本的预测结果,H(p,q)H(p,q)表示模型的交叉熵损失。交叉熵损失函数的目标是最小化模型预测结果与真实标签之间的差异,从而提高分类模型的准确率。

4.4 残差连接

  残差连接(Residual Connection)是一种在神经网络中常用的技术,用于解决深层神经网络中梯度消失(Gradient Vanishing)和梯度爆炸(Gradient Exploding)的问题。在残差连接中,网络的某些层将原始输入作为一个跨层连接(Skip Connection)的一部分,与中间层的输出相加,从而将原始输入的信息传递到后续层中。这种跨层连接可以减少网络的深度,缓解梯度消失和梯度爆炸的问题,提高网络的性能和训练效果.
  在残差网络中,一般使用残差块(Residual Block)来实现残差连接的功能。
x_{i+1}= x_i + F(x_i,W_i)
  其中,x_i,表示残差块的输入,F 表示残差块的非线性变换函数,一般是ReLU,W_i表示残差块中的权重参数。x_{i+1}表示残差块的输出,它等于输入x_i和非线性变换函数 F 的输出之和。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,098评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,213评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,960评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,519评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,512评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,533评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,914评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,574评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,804评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,563评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,644评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,350评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,933评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,908评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,146评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,847评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,361评论 2 342

推荐阅读更多精彩内容