您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Deeplearning 深度学习笔记

  2. 吴恩达Coursera深度学习教程中文笔记,这些课程专为已有一定基础(基本的编程知识,熟悉Python、对机器学习有基本了解),想要尝试进入人工智能领域的计算机专业人士准备。在这5堂课中,学生将可以学习到深度学习的基础,学会构建神经网络,并用在包括吴恩达本人在内的多位业界顶尖专家指导下创建自己的机器学习项目。Deep Learning Specialization对卷积神经网络 (CNN)、递归神经网络 (RNN)、长短期记忆 (LSTM) 等深度学习常用的网络结构、工具和知识都有涉及。
  3. 所属分类:深度学习

    • 发布日期:2018-05-08
    • 文件大小:25mb
    • 提供者:howieli
  1. 吴恩达DeepLearning.ai专项笔记

  2. 吴恩达深度学习专项笔记,详记了基础知识和作业代码,该笔记从神经网络与深度学习基础,提升深度神经网络性能和卷积神经网络三门课程出发 详细解释了相关概念和作业代码,并选择每个课程主题比较有意思的知识点进行详细讲解。
  3. 所属分类:深度学习

    • 发布日期:2018-02-26
    • 文件大小:23mb
    • 提供者:xingxin_xu
  1. Tensorflow笔记-中国大学mooc

  2. Tensorflow笔记-中国大学mooc 第一讲 人工智能概述 第二讲 Python语法串讲 第三讲 Tensorflow框架 第四讲 神经网络优化 第五讲 全连接网络基础 第六讲 全连接网络实践 全连接网络实践成绩已公布 第七讲 卷积网络基础 第八讲 卷积网络实践
  3. 所属分类:深度学习

    • 发布日期:2018-10-04
    • 文件大小:2kb
    • 提供者:leesiwen
  1. Tensorflow笔记-中国大学全部讲义源代码

  2. 第一讲 人工智能概述 第二讲 Python语法串讲 第三讲 Tensorflow框架 第四讲 神经网络优化 第五讲 全连接网络基础 第六讲 全连接网络实践 第七讲 卷积网络基础 第八讲 卷积网络实践
  3. 所属分类:机器学习

    • 发布日期:2018-10-04
    • 文件大小:20kb
    • 提供者:leesiwen
  1. 卷积神经网络CNN笔记(理解CNN数学原理的指南).pdf

  2. 卷积神经网络是深度学习中的基础模型。南京大学吴建鑫教授的「卷积神经网络CNN」笔记,35页pdf初学者学习指南理解CNN数学原理。
  3. 所属分类:机器学习

    • 发布日期:2020-02-24
    • 文件大小:773kb
    • 提供者:syp_net
  1. AndrewNG深度学习笔记V5.61—黄海广.pdf

  2. 本文档是针对吴恩达老师深度学习课程视频做的笔记。在这5堂课中,学生将可以学习到深度学习的基础,学会构建神经网络,并用在包括吴恩达本人在内的多位业界顶尖专家指导下创建自己的机器学习项目。本课程对卷积神经网络 (CNN)、递归神经网络 (RNN)、长短期记忆 (LSTM) 等深度学习常用的网络结构、工具和知识都有涉及。
  3. 所属分类:深度学习

    • 发布日期:2020-01-26
    • 文件大小:24mb
    • 提供者:Leytton
  1. Deeplearning深度学习笔记v5.61.pdf

  2. Coursera 深度学习教程中文 笔记 课程概述 这些课程专为已有一定基础(基本的编程知识,熟悉 Python、对机器学习有基本了解), 想要尝试进入人工智能领域的计算机专业人士准备。介绍显示:“深度学习是科技业最热门 的技能之一,本课程将帮你掌握深度学习。” 在这 5 堂课中,学生将可以学习到深度学习的基础,学会构建神经网络,并用在包括吴 恩达本人在内的多位业界顶尖专家指导下创建自己的机器学习项目。Deep Learning Specialization 对卷积神经网络 (C
  3. 所属分类:深度学习

  1. 【学习笔记】动手学深度学习task05

  2. 一、卷积神经网络基础 1.互相关运算 举例二维互相关运算如下: 输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。 卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 互相关运算与卷积运算:卷积层得名于卷积运算,但卷积层中用到的并非卷积
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:500kb
    • 提供者:weixin_38732315
  1. 动手学深度学习Pytorch版本学习笔记 Task 05

  2. 1.卷积神经网络基础 卷积其实就是将许多部分的信息进行压缩,在过大维度矩阵的情况下,因为存在过多的信息 第一是为运算上带来了很多麻烦 第二是类似拿着显微镜看一幅画,难以捕捉其整体的信息。通过互相关运算将画拿远,慢慢感受他整体的信息。所以应该在卷积神经网络中把大矩阵缩小多少次,缩小到什么程度应该是个相当关键的问题。只有在能看清具体信息但又能把握整体信息的情况下,才能得到对图像更清楚地把握。 通过感受野这个概念能发现,经过互相关运算或者卷积运算之后的矩阵,应该每个位置都综合了之前感受野中的信息,所以
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:64kb
    • 提供者:weixin_38696339
  1. 《动手学深度学习——卷积神经网络、LeNet、卷积神经网络进阶》笔记

  2. 动手学深度学习:卷积神经网络,LeNet,卷积神经网络进阶 卷积神经网络基础 目录: 1、卷积神经网络的基础概念 2、卷积层和池化层 3、填充、步幅、输入通道和输出通道 4、卷积层的简洁实现 5、池化层的简洁实现 1、卷积神经网络的基础概念 最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:132kb
    • 提供者:weixin_38630571
  1. 卷积神经网络和机器翻译笔记

  2. 卷积神经网络基础笔记 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:543kb
    • 提供者:weixin_38742421
  1. 【DL学习笔记】打卡02:Task03-05

  2. Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer Task05:卷积神经网络基础;leNet;卷积神经网络进阶 过拟合、欠拟合及其解决方案 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:69kb
    • 提供者:weixin_38508497
  1. 动手学深度学习之卷积神经网络进阶(ModernCNN)

  2. 参考伯禹学习平台《动手学深度学习》课程内容内容撰写的学习笔记 原文链接:https://www.boyuai.com/elites/course/cZu18YmweLv10OeV/lesson/T5r2YnM8A4vZpxPUbCQSyW 感谢伯禹平台,Datawhale,和鲸,AWS给我们提供的免费学习机会!! 总的学习感受:伯禹的课程做的很好,课程非常系统,每个较高级别的课程都会有需要掌握的前续基础知识的介绍,因此很适合本人这种基础较差的同学学习,建议基础较差的同学可以关注伯禹的其他课程:
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:394kb
    • 提供者:weixin_38530202
  1. 卷积神经基础笔记

  2. 卷积神经基础笔记 课后习题: 假如你用全连接层处理一张256X256的彩色(RGB)图像,输出包含1000个神经元,在使用偏置的情况下,参数数量是:19660900 解析:图像展平后长度为3X256X256,权重参数和偏置参数的数量是3X256X256X1000+1000=19660900 假设用全连接层处理一张256X256的彩色RGB图像,卷积核的高宽是3X3,输出包含10个通道,在使用偏置的情况下,这个卷积层共有多少个参数:280 输入通道数是3,输出通道数是10,所以参数是10X3X3X
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:57kb
    • 提供者:weixin_38740596
  1. Task05:卷积神经网络基础;leNet;卷积神经网络进阶 学习笔记

  2. 卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:150kb
    • 提供者:weixin_38628830
  1. 《动手学——卷积神经网络基础》笔记

  2. 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:135kb
    • 提供者:weixin_38530211
  1. 动手学深度学习之-卷积神经网络基础

  2. 卷积神经网络基础 参考伯禹学习平台《动手学深度学习》课程内容内容撰写的学习笔记 原文链接:https://www.boyuai.com/elites/course/cZu18YmweLv10OeV/video/whY-8BhPmsle8wyEEyTST 感谢伯禹平台,Datawhale,和鲸,AWS给我们提供的免费学习机会!! 总的学习感受:伯禹的课程做的很好,课程非常系统,每个较高级别的课程都会有需要掌握的前续基础知识的介绍,因此很适合本人这种基础较差的同学学习,建议基础较差的同学可以关注伯禹
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:129kb
    • 提供者:weixin_38740596
  1. 笔记:动手学深度学习pytorch(卷积神经网络基础;leNet;卷积神经网络进阶)

  2. – 卷积神经网络基础 – 卷积层 – 1×\boldsymbol\times× 1 卷积层 形状为1×11 \times 11×1的卷积核,我们通常称这样的卷积运算为1×11 \times 11×1卷积,称包含这种卷积核的卷积层为1×11 \times 11×1卷积层。 1×11 \times 11×1卷积核可在不改变高宽的情况下,调整通道数。1×11 \times 11×1卷积核不识别高和宽维度上相邻元素构成的模式,其主要计算发生在通道维上。假设我们将通道维当作特征维,将高和宽维度上的元素当
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:799kb
    • 提供者:weixin_38528180
  1. ElitesAI·动手学深度学习PyTorch版学习笔记-卷积神经网络基础;leNet;卷积神经网络进阶

  2. 宅家中看到Datawhale的学习号召,在大牛云集的群上找到了一个很佛系的小组,战战兢兢地开始了小白的深度学习之旅。感谢Datawhale、伯禹教育、和鲸科技,感谢课程制作者、组织者、各位助教以及其他志愿者! 1 卷积神经网络基础 1.1 二维卷积 本小节介绍了二维卷积,主要用于图像数据(刚好是二维的数据)处理。 二维卷积通过输入二维数据和二维核数据的运算(卷积),得到一个小于输入数据的二维输出数据,但是该输出数据依然部分保存了输入数据的信息。输出的二维数据可以看作输入数据的一个缩略图,也叫
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:50kb
    • 提供者:weixin_38652196
  1. pytorch 学习笔记 part8 卷积神经网络基础

  2. 卷积层的实现 主要参数: 1.in_channels (python:int) – Number of channels in the input imag 2.out_channels (python:int) – Number of channels produced by the convolution 3.kernel_size (python:int or tuple) – Size of the convolving kernel 4.stride (python:int or tu
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:20kb
    • 提供者:weixin_38632916
« 12 3 »