标签 GPT 下的文章
在pytorch上实现一个GPT小模型
训练流程环境设置:训练在Google Colab上完成,利用其免费提供的16G显存(实际可用约13~15G)。数据预处理:使用BPE(Byte Pair Encoding)算法处理词表,词表大小约为5万。对每篇文章mask最后一个字用作预测,并计算loss。数据集定义:定义了MyDataSet...
训练流程环境设置:训练在Google Colab上完成,利用其免费提供的16G显存(实际可用约13~15G)。数据预处理:使用BPE(Byte Pair Encoding)算法处理词表,词表大小约为5万。对每篇文章mask最后一个字用作预测,并计算loss。数据集定义:定义了MyDataSet...
最新回复