说明:参考:
gpt-2
论文。
我们目前已经发布了GPT-2的小型(117M参数)和中型(345M参数)版本。 尽管我们尚未发布较大的模型,但已供研究人员研究其行为。
在我们的查看更多详细信息。
用法
该存储库是研究人员和工程师尝试GPT-2的起点。
一些警告
GPT-2模型的健壮性和最坏情况下的行为尚不为人所知。 与任何机器学习的模型一样,请针对您的用例仔细评估GPT-2,尤其是在未进行微调的情况下或在可靠性至关重要的安全性至关重要的应用中使用。
我们训练GPT-2模型的数据集包含许多有
<weixin_42128988> 上传 | 大小:165kb