[关闭]
@wuxin1994 2017-08-19T16:43:04.000000Z 字数 188 阅读 164

吴帆0819

学习笔记17


  1. 看论文《Adversarial Perturbations Against Deep Neural Networks for Malware Classification》
    论文笔记
  2. 把《Universal adversarial perturbations》代码在VGG-F数据集上跑了一下,得到了76.1%的误分类率,如果做Ensemble类型对抗攻击,可以考虑这种方法。
添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注