我们正在招募浙江大学本科生参与科研实习合作, 导师介绍:郑天航,百人计划研究员/博导/国家优秀青年科学基金(海外)项目获得者,担任 IEEE TCSVT 的编委与人工智能顶会 NeurIPS 和 ICML 的领域主席。详情请看这里
BIM - HengZhao's Knowledge Base
跳转至

BIM | Basic Iterative Method👀

约 1027 个字 预计阅读时间 3 分钟

又称 I-FGSM (Iterative Fast Gradient Sign Method)

paper

论文地址

论文主要提出:

  • BIM 攻击算法
  • ILCM (Iterative Least-likely Class Method) 攻击算法
  • 验证了在真实物理环境中,通过图像采集得到的对抗样本是否依旧能够使得分类器分类错误(本篇不介绍)

BIM👀

  • FGSM 类似,都是基于梯度的攻击方法。不同的是,BIM 是一种迭代攻击方法:
    • 对于 FGSM,每次寻找对抗样本,改变量是 ϵsign(xJ(θ,x,y)),这样是把每个像素点都改变了 ϵ 的量
    • 由于 FGSM 提出的假设是:目标损失函数是近似线性的,即 J(θ,x,y)wTx。之后在 x 上加一个扰动 η,使得 J(θ,x,y) 变化最大,由 J(θ,x+η,y)J(θ,x,y)wTη 要最大,故而 η=ϵsign(xJ(θ,x,y))
  • 但 BIM 作者表示 Jx 很可能不是高度线性关系,那么就可能存在一个在 (0,η) 间的扰动,使得 J(θ,x,y) 变化更大且此时 x 的改变量小于 ϵ
  • 基于此,作者提出迭代寻找各个像素点的扰动,即 I-FGSM or BIM,每次迭代都在上一次迭代的基础上进行扰动,这样总能砸到较好的步调使梯度上升,最差的情况就是迭代总改变量为 ϵ,这样就和 FGSM 一样
X0=XXN+1=ClipX,ϵ{XN+αsign(XJ(θ,XN,ytrue))}
  • XN+1 是第 N+1 次迭代后的得到的对抗样本
  • α: 控制扰动大小的参数
  • sign: 符号函数
  • J: 损失函数
  • θ: 模型参数
  • ytrue: 正确标签
  • Clip: 裁剪函数,将值限制在不大于 ϵ 的范围内

    • 在迭代更新过程中,随迭代次数增加,部分像素值可能溢出,例如超出 (0,1) 的范围,此时需要进行裁剪,将其用最接近的值代替,例如超出 1 的值用 1 代替,超出 0 的值用 0 代替。这样确保了新样本的各像素在原样本的邻域内,使图像免于失真
    • 其具体公式如下 (X(x,y,z) 表示图像 X 在坐标 (x,y) 处的第 z 个通道的像素值):
    ClipX,ϵ{X}(x,y,z)=min{255,X(x,y,z)+ϵ,max{0,X(x,y,z)ϵ,X(x,y,z)}}
  • 迭代的含义:每次迭代都会在上一次迭代的基础上进行扰动,各个像素改变量为 α, 且每次迭代都会裁剪,保证了新样本的扰动不会超过 ϵ

code

Download bim_tutorial.ipynb

Info-ILCM👀

ICLM(Iterative Least-likely Class Method) 算法是 BIM 的一个变种,将输入图像分类到最不可能的类别

X0=XXN+1=ClipX,ϵ{XNαsign(XJ(θ,XN,yLL))}
  • 由公式可看出,其与 BIM 的区别是 α 的符号不同,即 ILCM 是在原样本的基础上减去梯度,而 BIM 是在原样本的基础上加上梯度
  • 同时原本的真实标签 ytrue 被替换为最不可能的标签 yLL (此修改使模型优化的目标是最终对应类别为 yLL 的分类标签的概率越来越大)

该算法和常规分类模型训练类似,只是监督信息并不是真实标签了

该算法主要在于选择 yLL(原输入图像在分类模型中分类概率最小的类别), 其可由一下公式得到:

yLL=argminy{p(y|X)}
  • p(y|X) 表示在给定输入 X 的情况下,模型预测为 y 的概率

实验效果

由上图所示:当 ϵ 较小时,BIM 比原始 FGSM 效果好且 ICLM 效果最好且 ICLM 需要的扰动量最小

69