本文作者:qiaoqingyi

监控平台神经网络技术(监控平台神经网络技术有哪些)

qiaoqingyi 04-07 147

  几千年来,人们就已经有了思考如何构建智能机器的想法。从那时开始,人工智能 (AI) 经历了起起落落,这证明了它的成功以及还未实现的潜能。如今,随时都能听到应用机器学习算法来解决新问题的新闻。从癌症检测和预测到图像理解和总结以及自然语言处理,AI 正在增强人们的能力和改变我们的世界。AI虽然强大,提高遥感图像分类精度一直是AI到普遍关注的焦点问题。近年来,人工神经网络技术和分处理技术由于它们的许多优点受到广泛欢迎。但这并不代表其十分完美了,相反的更应不断去改善。

  最近华盛顿大学、密歇根大学、石溪大学和加州大学伯克利分校的一组研究人员发表了一篇文章,表明在物理世界中进行轻微的改变,也能诱骗视觉分类算法。你只需要在停车标志上加一点喷漆或一些贴纸,就能够愚弄一个深度神经网络分类器,让神经网络将停止标志看成是限速标志。

  因为贴纸的面积相对整个标识而言很小,所以由此造成的干扰也就更加严重。据研究人员介绍:

监控平台神经网络技术(监控平台神经网络技术有哪些)

  “根据我们的评估方法,100%的图像分类器将停止标志错误地归到限速 45 的类别中。对于右转标志……我们的攻击让错误分类的成功率为 100%,其中 66.67% 的图像被归类为停车标志,33.7% 的图像被归为添加车道标志。[涂鸦] 攻击的成功率为 73.33%。[伪装抽象艺术攻击] 则实现了 100% 的错误分类率。”

  为了实施这些攻击,研究人员使用公开的道路标志数据集,在 TensorFlow 上对他们的道路标志分类器进行了训练。他们认为,攻击者会对分类器有“白盒”访问,这意味着攻击者不会混淆或篡改数据,而是把“杂物”添加进去,看看会出来什么。这样,即使无法直接入侵分类器,攻击者仍然可以使用这种反馈来创建一个相当准确的模型来分类它们。最后,研究人员将想要攻击的标志的图像加上他们的分类器,并将其加入到攻击算法中,这样算法就能输出对抗图像了。

  看来无人车,以后不仅仅需要防黑客,更需要防一些熊孩子了。

  趣云购:www.cuyg.com

阅读
分享