源自:DeepTech深科技 在人工智能“泛滥”的今天,仍然会有各种各样的问题对这一人类当前最具前景的技术构成威胁,在近日 Google Brain 研究人员 Ian Goodfellow 等人的最新论文《Adversarial Examples that Fool both Human and Computer Vision》中,他们就举出了其中的一个代表──对抗样本。
论文地址:https://arxiv.org/abs/1802.08195
对抗样本指的是攻击者故意设计的,会让机器学习模型作出错误决定的输入。机器学习很容易受到对抗样本的攻击,比如,即使是小小的扰动,就可以让计算机视觉系统将校车误认为是鸵鸟。但是人类视觉系统是否会被其干扰仍是一个悬而未决的问题。