[关闭]
@wuxin1994 2017-08-08T16:32:07.000000Z 字数 1291 阅读 130

吴帆0808

学习笔记17


  1. 论文《Concrete Problems for Autonomous Vehicle Safety:Advantages of Bayesian Deep Learning》
    (Rowan McAllister, Yarin Gal†, Alex Kendall, Mark van der Wilk, Amar Shah, Roberto Cipolla,
    Adrian Weller† Department of Engineering, University of Cambridge, UK† also Alan Turing Institute, London, UK,Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence (IJCAI-17))
    这篇论文主要涉及神经网络模型安全的实际应用。在自动汽车领域,软件方面就是通过一系列流程,将各种传感器的输入链接到发动机的输出上。而在这种传播过程中,如果有信息的损失就会有差错(比如将80%几率不会相撞直接判断为不会相撞) 。各个部分的差错也会被依次累积传递下去,最终输出错误的结果。同时,要让客户信任自动汽车,并使用这个系统,必须在三个方面开展研究:自动汽车的安全性(通过量化每个部分输出的不确定性,并且将这个不确定性也顺着流程传递下去)、可解释性(向客户解释自动汽车所看到的,并且为什么作出一系列决策,从而让客户安心)、顺从性(指的是让客户在自动汽车驾驶过程中维持对汽车的控制)。
    论文笔记:https://www.zybuluo.com/wuxin1994/note/843327
  2. 略看了论文《Proof of Work Without All the Work》,其中,PoW是一种增强网络安全性的流行算法,通过给网络参与设备一个可计算的损失值来计算安全性。但是这种在没有攻击存在的情况下会产生比较大的系统计算开销。因此论文设计了一种针对普遍开放式分布系统的PoW体系,其对系统的开销取决于攻击的程度。这篇文章是涉及传统网络安全中的defence,给针对各种攻击的defence也提出了一种思路:在模型各个部分增加一个损失值,输出能体现这种可靠程度。
  3. 这两篇论文都涉及到网络安全攻击的防范,两者基本思想比较相近,都是将各个部分的错误都汇总到最终的输出。前者将贝叶斯概率理论和神经网络结合,防御对抗攻击应该也有效果。
  4. 看论文《Practical Black-Box Attacks against Deep Learning Systems using Adversarial Examples》(Papernot N, Mcdaniel P, Goodfellow I, et al. Practical Black-Box Attacks against Deep Learning Systems using Adversarial Examples[J]. 2016.),这是16年的一篇对深度学习网络进行黑箱攻击的论文,利用了对抗攻击的可移植(即对一个结构的对抗攻击,在针对另一个完全不同结构的神经网络时也有效),论文笔记还没有写完
添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注