GPT2-中文
描述
中文版本的GPT2培训代码,使用BERT标记程序或BPE标记程序。 它基于HuggingFace团队的极其强大的存储库。 可以写诗,新闻,小说或训练通用语言模型。 支持字符级别,单词级别和BPE级别。 支持大型训练语料库。
中文的GPT2训练代码,使用BERT的令牌生成器或句子的BPE模型(感谢的贡献,实现BPE模式需要略微修改train.py的代码)。可以写诗,新闻,小说,或者训练通用语言模型。支持字为单位或分词模式或BPE模式(需要略微修改train.py的代码)。支持