干货!鲁棒彩票现象:藏在随机初始化神经因特网中的鲁棒子因特网
发布时间:2025年10月17日 12:20
因此,我们提出了一个Adversarial Search,其能够函数如下请注意:
M^就是我们的能够。
04
Robust Scratch Ticket: The Existence
实验者预设
我们在3个datasets和4个networks上顺利完成了Robust Scratch Ticket的实验者:ResNet-18/WideResNet-32 on CIFAR-10/100ResNet-50/101 on ImageNetModel initialization: Signed Kaiming Constant Initialization (by defaultSparsity pattern: element wise (by default)Attack setting: PGD-20 with ε=8 (by default)我们可以发掘出在各种network和datasets都可以发掘出RSTs的假定。
横传动装置:亦然在一个network当中有多少的位置被沿用了下来
纵传动装置:并不相同颜色的线亦然了并不相同的network,红黄亦然着dense network在做了adversarial training后能的大出的三高Robust Accuracy。
在很尤其适用范围内,我们的RSTs与红黄亦然的结果保持了相差无几的Robust Accuracy。
我们也曾一度发掘出在很广的适用范围当中认出的RSTs与做过adversarial training的network来得,有较好的鲁棒性和权重表原是。
RST (90% sparsity) @ WideResNet-32: +1.14%/+1.72% robust/natural accuracy with -60% parameters vs. the adversarially trained ResNet-18从匹配化程度较差(更多)的network当中识别出的RSTs比从匹配化程度较轻的network当中识别出的RSTs不具较好的robust/natural accuracy。
我们在并不相同的setting上也顺利完成了很多实验者。
05
Robust Scratch Ticket: The Properties
无论如何一:认出的RSTs没有经过军事训练,但如果顺利完成一个weight的fine-tuned后是否但会拿下较好的结果?
实验者
设立两种Fine-tuned RSTs
Fine-tuned RSTs starting with model weights inherited from the vanilla RSTFine-tuned RSTs with reinitialized weights我们比较了这两种经过fine-tuned的RSTs和原本的结果有什么并不相同。
Vanilla RSTs vs. fine-tuned在较尤其适用范围的remaining ratio下,实原是了相当稳健的精度Fine-tuned RSTs with inherited weights:在较高remaining ratio完全,大部分RSTs保持了较好的鲁棒性。Fine-tuned RSTs with re-initialization: 在较高remaining ratio完全,来得原来的RSTs不具相似甚至很差的稳健性上述情况反映出了lottery ticket phenom,即我们认出的RSTs本来就是较好的initialization,如果再用他作为initialization来顺利完成fine-tuned认出的侄互联网,那么也但会拿下较好的结果。
RSTs win a better initialization as fine-tuned RSTs with inherited weights are more robust than the re-initialized one在并不相同的model和datasets上我们的结论都是来得之下明确的。
无论如何二:RSTs的search process不止可以请注意随机的互联网上,当请注意军事训练好的互联网上是否但会拿下较好的效果呢?
实验者
设立两种Robust Trained Tickets (RTTs)
Natural RTTs: RTTs searched from naturally trained networksAdversarial RTTs: RTTs searched from adversarially trained network Adversarial RTTs:不具最好的robustnessNatural RTTs:robust/natural accuracy的表原是甚至不如 vanilla RSTs这就是说,在naturally trained的model当中找寻侄互联网还不如去随机模板的互联网当中回来侄互联网。下面,我们就通过实验者探究一下主因。
结果我们发掘出naturally trained的model但会对input上的perturbation极其sensitive,所以我们对model的input上加了扰动。此后记录下来下加noise前后最后一层feature map的变异,就有了上绘出请注意。我们可以看出,在naturally trained的model上,最后一层feature map的变异最为相对来说。这也就解释了naturally trained的model当中找寻侄互联网表原是不佳的主因。
06
Robust Scratch Ticket: The Applications
我们发掘出在并不相同的weight remaining ratios下,RSTs的adversarial transferability的表原是很差。
y传动装置:我们用哪个RST来分解成attack
x传动装置:用哪个ratio的RST来做influence
对角线:这两个RST如果为同一个,adversarial transferability的表原是就但会很差。
我们在并不相同的互联网和数据集上均有近似于发掘出。
我们选择在并不相同的RSTs密切人关系Randomly switch,这其实是博弈的过程。Attacker金额defender都可以本体最合适的attack和defend策略,最终但会的大出nash均衡。我们发掘出Randomly switch这些RSTs的结果和nash均衡下的鲁棒性表原是明确。
优点:
Parameter-efficiency due to the weight-sharing schemeThe same randomly initialized networks can be shared among different tas我们发掘出把R2S应请注意ResNet-18此后,比adversarial trained的ResNet-18还能拿下较好的鲁棒性表原是。
上述结果在其他datasets上的表原是是普遍明确的。
我们还发掘出如何选取RST并才但会对最终的performance致使影响。
提
醒
科学论文URL:
科学论文作文:
Drawing Robust Scratch Tickets: Subnetworks with Inborn Robustness Are Found within Randomly Initialized Networks
。南京治疗肛肠医院济南割包皮哪家强
南京儿科
- 4种蔬菜已被列入“致癌参考资料”,真的假的?不敢吃的人都看看吧
- 喝冰淇淋伤身还防癌?注意!这5类人,尽量远离冰淇淋,不妨了解
- 小暑将至,6种季军水果要常吃,消暑解渴营养高,轻松度过三伏天
- 孕期3种行为容易引起宝宝胎记,准妈妈尽量避开,能避免日后后悔
- @考生家长,重考这几句话你别说
- 有罪!美国素食爸爸“饿死”1岁儿子,英国父母“胖死”16岁女儿
- 女子让1岁半的孩子趴在地上玩到雨水,路人质疑:应该不是亲妈
- 被滥用的“延迟满足”,误了孩子坑了幼儿,你家孩子还在用吗?
- 女人要知道,一个女人心里有没有你,从这3件事就可以看出来!
- 为什么有的人明明不是领导,但似乎别人敬酒才喝,还从不敬人酒?
- 让同事信任支持自己的三个方法,学会后有缘一辈子
- 职场老实人被欺负的三个或许,活该被欺负?
- 为什么优秀员工而会是别人?这四个工作习惯告诉你原因
- 为什么有人些畏惧遇见领导?一般都有这五种心里特点