当前位置:首页 > 论坛资源/教学资源/浏览文章

方班研讨厅—神经机器翻译模型的对抗攻击

时间:2020-04-26 来源:广州大学方班 0 【 字体: 打印 手机访问

题目:神经机器翻译模型的对抗攻击

报告人:伍丹妮

本次报告对针对神经机器翻译的对抗攻击作出了综述。在神经网络的脆弱性背景下,神经机器翻译面临巨大的挑战,攻击者通过不同的方式企图使模型出错,主要分为黑盒攻击和白盒攻击。报告主要介绍了基于GAN和基于噪声的黑盒攻击,基于梯度和基于C&W的白盒攻击。最后总结了后续的研究方向,主要包括研究对抗样本迁移性,改进攻击算法和提高模型鲁棒性。

老师意见要点:

①讲述ppt时要自己发挥,不要只朗读备注

②读完论文后需要提出自己的理解,或者问题,而不是盲目相信

相关资料:

[1] Y. Belinkov, and Y. Bisk . Synthetic and Natural Noise Both Break Neural Machine Translation, ICLR., 2018.

[2] Su J , Vargas D V , Kouichi S . One pixel attack for fooling deep neural networks,CVPR,2017.

[3] Ian J Goodfellow, Jonathon Shlens, Christian Szegedy. Explaining and harnessing adversarial examples, ICLR,2015.

[4] Zhao Z , Dua D , Singh S . Generating Natural Adversarial Examples,ICLR,2018.

[5] Javid Ebrahimi, Daniel Lowd, Dejing Dou,On Adversarial Examples for Character-Level Neural Machine Translation,COLING,2018.

[6] Minhao Cheng, Jinfeng Yi, Huan Zhang, Pin-Yu Chen, and Cho-Jui Hseh. Seq2Sick: Evaluating the Robustness of Sequence-to- Sequence Models with Adversarial Examples. 2018.