在详细操作上,我们先利用分段线性(这里利用的是 ReLU )激活的构造来构建一组可能输出的 convex overapproximation 。该 overapproximation 可通过线性编程(LP)求解器得到,且能让我们迅速判断输出是否所需。为了避免操作趋于守旧,我们会将输入集重复划分为更小的子集以及对应较小的 convex overapproximations ,从而细化 overapproximation。
对付这种“划分-处理”类型的操作程序,输入集分区的天生办法选择将对验证问题的韶光是非产生重大的影响。现有的技能紧张通过递归的办法将输入集划分为较小的子集,以确认一组输入的安全性。而我们的技能则利用 LP 的最优原和双变量(在 convex overapproximation 过程中天生)来打算灵敏度的度量(所谓的影子价格),因此得以估计新的分区将如何影响随后的overapproximations,从而减少分裂的数量。末了的结果是,我们拥有一个能以快速且资源有效办法来验证深度神经网络的算法,有效减少了打算所需的韶光。
通过更有效的算法将输入集划分为更小的子集。 在这种情形下,来自初始集的输入不会产生归属危险集的输出(由感叹号表示)。

总的来说,该结果为我们当下各种机器学习运用(包括视觉与掌握)的验证方法改进供应了一条全新思路。如何高效、可靠地对深度神经网络的学习行为进行验证,是将这些技能集成到对安全哀求较高的领域的主要一步。我们的未来事情将集中在如何将验证能力扩展至更常见的神经网络以及具备任意拓扑的输入集。
论文链接:
https://l.facebook.com/l.php?u=https%3A%2F%2Farxiv.org%2Fabs%2F1902.07247&h=AT19u-xX03Ad5gQjrdBK0CFYk9UtXTeUSlm1oyigm1L3jnyxMuwv3AYszT3NgXoKV84Y8Rn7TvFbHSqpcIHqaaXEaYcsAV7-lCPajQHC5FUpxFFdjC2Yl12oCN-GNyRKZmKa6ccHQf5ewLZLaYv146sum0G7v1gF6P7l2kVR
via https://ai.facebook.com/blog/faster-more-efficient-neural-network-verification/
雷锋网 AI 科技评论