**问题1:**Causal Language Modeling 和 Conditional Generation 、Sequence Classification 的区别是什么?
因果语言模型(Causal Language Model): 预测给定文本序列中的下一个字符,一般用于文本生成、补全句子等,模型学习给定文本序列的概率分布,并预测下一个最可能的词或字符。
条件生成模型(Conditional Generation): 基于给定的条件或输入生成新的文本,模型不仅学习文本序列的概率分布,还学习如何根据给定的条件生成文本。常见的模型包括T5(Text-to-Text Transfer Transformer)和BART(Bidirectional and Auto-Regressive Transformer)。一般用于翻译、问答。
序列分类模型(Sequence Classification): 将输入的文本序列分类到预定义的类别中。常见的模型包括BERT(Bidirectional Encoder Representations from Transformers)和RoBERTa(Robustly Optimized BERT Pretraining Approach)。一般任务为情感分析、文本分类、垃圾邮件检测。
条件生成模型和因果模型之间的差别:
因果语言模型(Causal Language Model) 与序列到序列模型(Seq2Seq)的区别与联系_causal language modeling-CSDN博客
浅谈NLP中条件语言模型(Conditioned Language Models)的生成和评估 - 知乎
Seq2Seq: 专指 encoder-decoder 架构,和条件生成模型是同一个东西,一般用于翻译任务和图生文。从一个序列到另一个序列。
原因: 因为输入和输入的数据类型不相同,所以需要 encoder 将其转为同空间的序列,然后再通过 Decoder 将这个序列展开为输出的结果。Decoder 生成下一个词的时候,不仅依赖于历史序列,还依赖与编码器提供的外部信息。
Casual Model: Causal Language Model是一种只包含解码器(Decoder-only)的模型,它的核心思想是根据前面的文本序列来生成后面的文本序列。所以它的特点是,每次生成下一个词时,模型会考虑前面已经生成的所有词(上下文)。这种模型本质上是自回归的,即“基于前面的内容生成后面的内容”。
原因: 完全依赖于自身生成的历史序列。