您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. util-linux-ng-2.17源码(含fdisk)

  2. util-linux-ng-2.17源码(含fdisk) Here is a list of all documented files with brief descr iptions: util-linux-ng-2.17.2/disk-utils/blockdev.c [code] util-linux-ng-2.17.2/disk-utils/cramfs.h [code] util-linux-ng-2.17.2/disk-utils/cramfs_common.c [code] ut
  3. 所属分类:C

    • 发布日期:2012-06-16
    • 文件大小:4mb
    • 提供者:ycs3317
  1. grub4dos-V0.4.6a-2017-02-04更新

  2. 更新说明: 2017-02-04(yaya) Ls command: Empty Folder returns false. 2016-12-08(yaya) 修正lz4、vhd不显示解压缩进度指示。增加lzma解压缩进度指示。 2016-11-09(不点) 0x8205 bit 5 = 1: 使checkkey闲置循环停止指令。 2016-04-13(yaya) 支持动画菜单 setmenu --graphic-entry=类型=菜单行数=菜单列数=图形宽(像素)=图形高(像素)=菜单行间距
  3. 所属分类:DOS

    • 发布日期:2017-03-05
    • 文件大小:660kb
    • 提供者:qq_37767541
  1. awesome-ai-writings:人工智能(AI)编写的精选作品清单。 贡献最欢迎-源码

  2. 很棒的ai作品 AI(人工智能)编写的精选作品清单。 贡献最欢迎。 内容 产品 AI作家( 由GPT-2模型提供支持的写作助手。 Copysmith( )-AI Copywriter 职位描述AI( )-生成专业的职位描述 聊天机器人 -一个人就像从谷歌聊天机器人 GPT3人生的目的是什么? ( :生活是一个美丽的奇迹。 生命会随着时间的流逝而演变成更大的美。 从这个意义上讲,生命的目的是增加宇宙中的美丽。 引号 愚人节所说的“浪费时间”通常是最好的投资。 -GPT3( ) 当我
  3. 所属分类:其它

  1. GPT2-LoveCraft:使用GPT-2模型生成爱情手Craft.io品-源码

  2. GPT2 LoveCraft 该项目使用GPT-2模型生成了爱情手Craft.io品。 微调数据: 型号信息 Base model: gpt-2 large Epoch: 30 Train runtime: 10307.3488 secs Loss: 0.0292 如何使用 * First, Fill what the base text. This will be base of Love craft fiction. * And then, Fill number in length.
  3. 所属分类:其它

  1. askreddit_but_ai:培训GPT-2撰写AskReddit帖子-源码

  2. askreddit_but_ai 培训GPT-2撰写AskReddit帖子
  3. 所属分类:其它

    • 发布日期:2021-03-22
    • 文件大小:10mb
    • 提供者:weixin_42161497
  1. deeplearning-nlp-models:一个小的,可解释的代码库,其中包含在PyTorch中重新实现的一些“深度” NLP模型。可与GPU一起运行的Colab笔记本。楷模-源码

  2. deeplearning-nlp-models 一个小的,可解释的代码库,其中包含在PyTorch中重新实现的一些“深度” NLP模型。 对于那些有兴趣进入NLP的DL架构杂草的人来说,这是一个(不完整的)起点。带注释的模型与一些注释一起提供。 有链接可以在与GPU协同工作的情况下运行这些模型 :cloud_with_lightning:通过笔记本。 当前型号:word2vec,CNN,转换器,gpt。 (进行中) BERT:阅读。理解。 注意:这些是每种型号的玩具版本。 内容 楷模 这些NL
  3. 所属分类:其它

  1. GPT_finetuned_with_own_text-源码

  2. 项目名 用准备好的文本微调GPT-2文本生成模型。 在这种特殊情况下,文字是书籍的串联来自管理,领导力和业务方面的良好实践领域。开始句子包含某种矛盾,以找出经过微调的模型如何建立跟进355M模型用于调整:效果真的很好。 基本信息 GPT-2发行了三种尺寸: 124M(默认):“小型”型号,磁盘上500MB。 355M:“中型”型号,磁盘上有1.5GB。 774M:“大”模型,当前无法与Colaboratory进行微调,但可用于从预先训练的模型中生成文本(请参阅稍后在Notebook中)
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:133kb
    • 提供者:weixin_42099176
  1. gpt2-bert-reddit-bot:结合了预训练的GPT-2和BERT模型生成真实答复的机器人-源码

  2. gpt2-bert-reddit-bot 一系列脚本,使用reddit数据微调GPT-2和BERT模型,以生成真实的回复。 jupyter笔记本也可在访问Google Colab 有关运行脚本的演练,请参阅。 处理培训数据 我使用熊猫从Google bigquery读取。 get_reddit_from_gbq.py自动执行下载。 prep_data.py清除数据并将其转换为GPT2和BERT微调脚本可用的格式。我将结果从prep_data.py手动上传到Google云端硬盘,以供Google
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:129kb
    • 提供者:weixin_42122838
  1. image-gpt-源码

  2. 状态:存档(代码按原样提供,预计不会更新) image-gpt 论文代码和模型。 支持的平台: Ubuntu 16.04 安装 您可以从获得miniconda,或手动安装以下所示的依赖项。 conda create --name image-gpt python=3.7.3 conda activate image-gpt conda install numpy=1.16.3 conda install tensorflow-gpu=1.13.1 conda install imageio
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:11kb
    • 提供者:weixin_42109639
  1. EssayKiller_V2:基于开源GPT2.0的初代创作型人工智能|可扩展,可进化-源码

  2. 随笔杀手 通用型议论文创作人工智能框架,仅限交流与科普。 Bilibili视频地址: : 项目简介 EssayKiller是基于OCR,NLP领域的最新模型所构建的生成式文本创作AI框架,当前第一版finetune模型针对高考作文(主要是议论文),可以有效生成符合人类认知的文章,大量文章经过测试可以达到正常高中生及格作文水平。 项目作者 主页1 主页2 主页3 图灵的猫 致谢 感谢作者提供GPT-2中文预训练框架与数据支持。感谢, , , , , , , , 的参与和支持 框架说明
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:208mb
    • 提供者:weixin_42102272
  1. cm21-源码

  2. 艾莉的超现实主义和AI生成的语料库 《人文科学》 2021年Spring的计算方法材料 导航:(正在建设中) -Corpus_AI(文件夹):GPT-2生成的文本的工作语料库 -Corpus_S(文件夹):超现实主义文学作品集 -练习(文件夹):包含练习记录和数据-data_vis(子文件夹):包含练习5的R Markdown笔记本记录,我能够制作的最佳绘图以及.csv文件的更新版本适应最适合小技巧和在ggplot中工作 -corpus_AI_metadata.csv和corpus_S_met
  3. 所属分类:其它

  1. ru-gpts:俄罗斯GPT3型号-源码

  2. ruGPT3XL,ruGPT3Large,ruGPT3Medium,ruGPT3Small和ruGPT2Large 该存储库包含在一堆庞大的俄语数据集上训练的一堆自回归转换器语言模型。 俄罗斯GPT-3模型(ruGPT3XL,ruGPT3Large,ruGPT3Medium,ruGPT3Small)经过训练,具有2048个序列长度,稀疏且密集的注意块。 我们还提供训练有1024个序列长度的俄罗斯GPT-2大型模型(ruGPT2Large)。 我们建议使用ruGPT2Large或ruGPT3
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:133kb
    • 提供者:weixin_42181545
  1. hacker-news-gpt-2:GPT-2生成的文本转储内容经过了Hacker News标题培训-源码

  2. hacker-news-gpt-2 从生成的文本转储到Hacker News标题上训练到2019年4月25日(大约603k标题,30MB文本)进行了36,813步(带P100 GPU 12小时,售价约6美元)。 输出绝对不同于Markov链。 对于每个温度,有20个1,000个标题的转储(您可以在good_XXX.txt文件中看到一些good_XXX.txt标题)。 温度越高,文本就越疯狂。 temp_0_7 :正常且在语法上正确,但是AI有时会逐字复制现有标题。 我建议您对照HN搜索进行
  3. 所属分类:其它

  1. gpt-2:gpt-2-源码

  2. 状态:存档(代码按原样提供,预计不会更新) gpt-2 论文代码和模型。 您可以在我们的, 和阅读有关GPT-2及其分阶段发布的。 我们还供研究人员研究他们的行为。 *请注意,由于错误(在之前的博客文章和论文中),我们的原始参数计数是错误的。 因此,您可能已经看到小型代表117M,中等代表345M。 用法 该存储库是研究人员和工程师尝试GPT-2的起点。 有关基本信息,请参见我们的。 一些警告 GPT-2模型的健壮性和最坏情况下的行为不是很容易理解。 与任何机器学习的模型一样,请针对您
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:26kb
    • 提供者:weixin_42144201
  1. TOEIC_Mask_Filling:使用GPT-2解决填充口罩问题-源码

  2. TOEIC_Mask_Filling 使用GPT-2解决填充口罩问题。 主意: 用4个选项代替一个问题,使4个完整的句子 估计这4个句子的困惑 选择构成最低困惑度的句子的选项 代码 安装变压器: pip install transformers 初始化模型和令牌生成器: model_name = 'gpt2-medium' model = AutoModelForCausalLM.from_pretrained(model_name) tokenizer = AutoTokenizer.
  3. 所属分类:其它

    • 发布日期:2021-03-05
    • 文件大小:261kb
    • 提供者:weixin_42121086
  1. socket-io:Ai(m)让您使用GPT-2聊天机器人编写故事-源码

  2. socket-io:Ai(m)让您使用GPT-2聊天机器人编写故事
  3. 所属分类:其它

    • 发布日期:2021-02-21
    • 文件大小:221kb
    • 提供者:weixin_42134054
  1. gpt-2-数学测试-源码

  2. 参考: gpt-2 论文。 我们目前已经发布了GPT-2的小型(117M参数)和中型(345M参数)版本。 尽管我们尚未发布较大的模型,但已供研究人员研究其行为。 在我们的查看更多详细信息。 用法 该存储库是研究人员和工程师尝试GPT-2的起点。 一些警告 GPT-2模型的健壮性和最坏情况下的行为尚不为人所知。 与任何机器学习的模型一样,请针对您的用例仔细评估GPT-2,尤其是在未进行微调的情况下或在可靠性至关重要的安全性至关重要的应用中使用。 我们训练GPT-2模型的数据集包含许多有
  3. 所属分类:其它

    • 发布日期:2021-02-18
    • 文件大小:165kb
    • 提供者:weixin_42128988
  1. gpt-2-simple:Python软件包,可以轻松地在新文本上重新训练OpenAI的GPT-2文本生成模型-源码

  2. gpt-2-简单 一个简单的Python程序包,用于包装的(特别是“小” 124M和“中” 355M超参数版本)的现有模型微调和生成脚本。 此外,此程序包允许更容易地生成文本,生成到文件以方便管理,并允许使用前缀来强制文本以给定短语开头。 该软件包合并了以下内容并对其进行了最少的低级更改: 来自OpenAI的存储库的模型管理(MIT许可证) 从Neil Shepperd的GPT-2进行模型微调(MIT许可) 来自文本生成输出管理(MIT许可,也由我创建) 为了进行微调,强烈建议使用G
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:111kb
    • 提供者:weixin_42104366
  1. gpt-2-tensorflow2.0:Tensorflow 2.0中的OpenAI GPT2预训练和序列预测实现-源码

  2. GPT-2预训练和文本生成,在Tensorflow 2.0中实现 最初由OapenAi在tensorflow 1.14中实现:- 。 OpenAi GPT-2论文: **此存储库在Tensorflow 2.0中具有OpenAi GPT-2预训练和序列生成实现,** 要求 python> = 3.6 setuptools == 41.0.1 ftfy == 5.6 tqdm == 4.32.1 点击== 7.0 句子== 0.1.83 张量流gpu == 2.3.0 n
  3. 所属分类:其它

  1. gpt-2-cloud-run:通过GPT-2进行Cloud Run的文本生成API-源码

  2. gpt-2-cloud-run 该应用程序用于构建文本生成API,以通过从的生成文本,并以可扩展的方式运行该文本,并通过Google的有效地免费提供。 该应用旨在用于轻松,经济高效地允许其他人在另一个数据集上使用经过微调的GPT-2模型,并允许以编程方式访问所生成的文本。 基本app.py运行app.py是实现异步/未来发展,如果您想修改GPT-2的输入/输出,强制使用某些生成参数或想要添加其他功能/端点(例如在推文中生成结果),则很容易被黑客。 演示版 您可以在此处运行基于Web的Clou
  3. 所属分类:其它

    • 发布日期:2021-01-28
    • 文件大小:136kb
    • 提供者:weixin_42116596
« 12 3 4 »