您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. advmlthreatmatrix:对抗威胁矩阵-源码

  2. 对抗性ML威胁矩阵-目录 该项目的目标是在样式的框架中定位对机器学习(ML)系统的攻击,以便安全分析人员可以使自己适应这些新的和即将到来的威胁。 如果您不熟悉ML系统的攻击方法,建议您从针对安全分析人员的简洁。 或者,如果您想直接潜水,请前往 。 为什么要开发对抗性ML威胁矩阵? 在过去的三年中,诸如 , , 和主要公司都对其机器学习系统进行了欺骗,逃避或误导。 根据这种趋势只会上升。 到2022年,将有30%的网络攻击涉及数据中毒,模型盗窃或对抗性例子。 行业准备不足。 在对大小型组
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:951kb
    • 提供者:weixin_42100032
  1. ML2021-Spring:李宏毅(Hung-Yi Lee)机器学习Machine Learning 2021 Spring-源码

  2. 国立台湾大学机器学习Machine Learning 2021 Spring (每周更新!每周更新!) 该存储库包含李宏毅(Hung-Yi Lee)指导的15项机器学习家庭作业的代码和幻灯片。 有关该课程的所有信息都可以在上找到。 讲座视频 讲座视频可在Hung-Yi Lee的。 15作业 HW1:回归 HW2:分类 HW3:CNN HW4:自我关注 HW5:变压器 HW6:GAN HW7:BERT HW8:自动编码器 HW9:可解释的AI HW10:对抗性攻击 HW11:适应 HW1
  3. 所属分类:其它

  1. 机器学习对抗性攻击

  2. 随着人工智能和机器学习技术在互联网的各个领域的广泛应用,其受攻击的可能性,以及其是否具备强抗打击能力一直是安全界一直关注的。之前关于机器学习模型攻击的探讨常常局限于对训练数据的污染。由于其模型经常趋向于封闭式的部署,该手段在真实的情况中并不实际可行。在GeekPwn2016硅谷分会场上,来自北美工业界和学术界的顶尖安全专家们针对当前流行的图形对象识别、语音识别的场景,为大家揭示了如何通过构造对抗性攻击数据,要么让其与源数据的差别细微到人类无法通过感官辨识到,要么该差别对人类感知没有本质变化,而机
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:490kb
    • 提供者:weixin_38747946
  1. IQA-CNN-Adversarial-Attacks:针对基于CNN的图像分类(数据集)的对抗性攻击的感知评估-源码

  2. IQA-CNN-Adversarial-攻击 基于CNN的图像分类的对抗性攻击的感知评估(数据集) 介绍 深度神经网络(DNN)最近获得了最先进的性能,并在许多机器学习任务中取得了重大进展。 但是,最近的研究表明,DNN容易受到对抗性攻击。 例如,在图像分类域中,向输入图像添加较小的不可察觉的扰动足以愚弄DNN并导致错误分类。 被扰动的图像(称为对抗示例)在视觉上应尽可能接近原始图像。 但是,文献中提出的所有用于生成对抗性示例的工作都使用Lp范数(L0,L2和Linf)作为距离度量来量化原始图像
  3. 所属分类:其它

  1. 阅读材料:此存储库主要用于显示我正在调查的资源,以了解AI的最新进展-源码

  2. **这不是完整的,只要有时间,我就会尽可能地对其进行更新 如果您使用这些存储库,请加注星标,它将鼓励我找到更多资源 在这些回购中,我维护着我每天阅读的论文名称 ML DL和FL 文件 可靠地评估对抗性的鲁棒性,以及各种无参数攻击的组合。 图书 影片 >为了了解对抗训练的知识,预计梯度下降 >图形和顺序数据(MLGS)的机器学习 >机器学习数据系统 >多媒体信号处理 >可靠且可解释的机器学习 > AI中的不确定性建模 见解文章 人工智能报告2020
  3. 所属分类:其它

  1. ml_adversarial_attack-源码

  2. 机器学习对抗图像生成器 该工具生成有毒的输入,旨在使深度神经网络代表攻击者做出决策。 良性 对抗性 基于以下论文: 先决条件 需要以下依赖项: Tensorflow> = v1.8 入门 克隆仓库: git clone https://github.com/angel-fontalvo/ml_adversarial_attack.git 通过选择Python解释器并创建。\ venv目录来创建新的虚拟环境: python -m venv . \v env 激活环境。 视
  3. 所属分类:其它

    • 发布日期:2021-02-15
    • 文件大小:452kb
    • 提供者:weixin_42134338
  1. ML_hw:2020年Spring机器学习硬件,NTUEE-源码

  2. 机器学习作业 NTUEE 2020年Spring机器学习作业 作业清单 HW1:线性回归 HW2:逻辑回归和生成模型 HW3:CNN HW4:RNN HW5:可解释的AI HW6:对抗性攻击 HW7:网络压缩 HW9:无监督学习 HW11:GAN HW12:域适应 笔记
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:99mb
    • 提供者:weixin_42109732
  1. adversarial_lab:基于Web的工具,可通过攻击VGG,AlexNet,ResNet等ImageNet模型来可视化和生成对抗性示例-源码

  2. 对抗实验室 网站和项目的源代码,以生成对抗性示例来欺骗常见的机器学习模型。 这是用于通过使用DTA框架Pytorch的用户友好界面,使用流行的SOTA预TorchVision TorchVision ModelZoo来可视化和比较用户上传的图像上的各种对抗攻击的存储库。 到目前为止,已实施了以下攻击,并且可以在GAE/attacks.py找到代码。 固定GSM 快速梯度符号法,无目标 有针对性的快速梯度符号法 迭代式 基本迭代方法,无目标 最小可能类的迭代方法 DeepFool,无针对性
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:86mb
    • 提供者:weixin_42138376
  1. AdvBox:Advbox是用于生成对抗示例的工具箱,这些示例可以欺骗PaddlePaddle,PyTorch,Caffe2,MxNet,Keras,TensorFlow和Advbox中的神经网络,从而可以对机器学习模型的健壮性进行基准测试

  2. Advbox系列 Advbox系列是百度开源的一系列AI模型安全工具集,包括对抗示例的生成,检测和保护,以及针对不同AI应用的攻击和防御案例。 Advbox系列支持Python 3. *。 我们的工作 | 看到 AdvSDK 用于PaddlePaddle的轻量级Adv SDK,用于生成对抗性示例。 对抗盒 Adversarialbox是用于生成对抗示例的工具箱,该示例会欺骗PaddlePaddle,PyTorch,Caffe2,MxNet,Keras,Tensor
  3. 所属分类:其它

  1. 机器学习对抗性攻击

  2. 随着人工智能和机器学习技术在互联网的各个领域的广泛应用,其受攻击的可能性,以及其是否具备强抗打击能力一直是安全界一直关注的。之前关于机器学习模型攻击的探讨常常局限于对训练数据的污染。由于其模型经常趋向于封闭式的部署,该手段在真实的情况中并不实际可行。在GeekPwn2016硅谷分会场上,来自北美工业界和学术界的顶尖安全专家们针对当前流行的图形对象识别、语音识别的场景,为大家揭示了如何通过构造对抗性攻击数据,要么让其与源数据的差别细微到人类无法通过感官辨识到,要么该差别对人类感知没有本质变化,而机
  3. 所属分类:其它

    • 发布日期:2021-02-01
    • 文件大小:490kb
    • 提供者:weixin_38712548