人工智能的七大常见网络安全陷阱
为什么人工智能成为一种新的网络安全威胁?
人工智能现在是一个蓬勃发展的行业,大型企业、研究人员和创业公司都在努力充分利用这一趋势。从网络安全的角度来看,关注人工智能有几个理由,你的威胁评估模型需要根据以下发展情况进行更新。
早期人工智能可能制造一种虚假的安全感
目前生产中的大多数机器学习方法都会要求用户提供训练数据集。有了这些数据,应用就可以做出更好的预测。但是,在确定这些数据集要包含哪些数据方面,最终用户的判断是一种重要因素。如果黑客发现了监督过程的运作模式,那么这种监督式学习方法就会受到影响。实际上,黑客可以通过模仿安全代码来逃避机器学习的检测。
基于人工智能的网络安全为人类带来了更多工作机会
很少有企业愿意依赖机器提供的安全性。因此,网络安全领域的机器学习可以给人类带来了更多的工作机会。WIRED杂志总结了如下:“机器学习最常见的角色是附加的,它就像是一个哨兵,而不是万能的。”人工智能和机器学习工具会标记出需要审查问题,随着这些问题越来越多,人类分析师就需要对这些数据进行审查,从而做出下一步决定。
黑客们开始使用人工智能展开攻击
与任何技术一样,人工智能可用于防御,或者攻击。史蒂文斯理工学院的研究人员证明了这一事实,他们在2017年分析了4300万用户档案后,使用人工智能成功地猜出了27%的用户LinkedIn密码。在防御者手中,这样的工具可以帮助警示最终用户他们的密码设置较弱,而在攻击者手中,这样的工具就是一种安全威胁。
需要了解的常见错误
如果避免了以下错误,你就有可能在企业组织中成功地使用人工智能技术。
1、 没有周全地考虑过可解释性所带来的挑战
当你使用人工智能的时候,你是否能够解释它的运作和建议方式吗?如果不能,你就很可能接受(或者拒绝)人工智能的建议而无法对其进行评估。通过对人工智能提出的建议进行逆向设计,可以克服这一挑战。
2、 在不了解厂商模式的情况下使用他们提供的人工智能
一些企业决定从外部购买人工智能或者购买许可,而不是自己内部开发人工智能技术。这种方法与任何战略决策一样都存在着缺点,你无法信任厂商的建议。你需要就系统如何保护数据以及人工智能工具可以访问哪些系统提出详细的问题,要求厂商解释他们对数据和机器学习的假设,可以解决这一挑战。
3、 没有单独测试人工智能的安全性
当你使用人工智能或者机器学习工具的时候,你需要将大量数据输入进去。这就需要你信任该系统,所以你必须从网络安全的角度对该系统进行测试。例如,考虑是否可以通过SQL注入或者其他黑客技术入侵到系统中。如果黑客可以破坏人工智能系统中的算法或者数据,那么企业决策的质量就会受到影响。
4、 企业组织缺乏人工智能网络安全技能
要进行人工智能的网络安全测试和评估,你就需要技能熟练的员工。遗憾的是,很少有网络专业人员能够胜任这个工作。所幸的是,人才发展计划可以解决这个问题。你可以为企业的网络安全专业人士提供获取证书、参加会议、使用其他资源来丰富人工智能知识的机会。
5、 出于安全性的考虑而完全忽略人工智能
上面这些常见错误可能会让你觉得完全避免使用人工智能和机器学习是个明智之举。这可能是十年前的做法,而如今人工智能和机器学习已经渗透到你工作所使用的每个工具中了。忽略这个趋势以最大限度降低风险,只会让你的企业组织面临更大的风险,还不如主动地去寻找利用人工智能的解决方案。例如,你可以使用安全聊天机器人更便捷地为你的员工提供安全性。
6、 对于通过人工智能实现转型的期待太高
以不合理的期望值而开始实施人工智能将会导致安全性和生产力方面的问题,不要试图用人工智能解决企业组织中的所有业务问题。从安全角度来看,如此广泛的实施将非常难以把控。相反,你应该采用低风险的方法:一次将人工智能应用于一个领域,例如自动执行常规安全管理任务,然后逐渐扩大范围。
7、 不愿意把真实的数据交给人工智能解决方案
大多数开发人员和技术人员喜欢通过设置测试环境来降低风险。这是一个很好的原则,值得使用。但是用于人工智能的时候,这种方法就有它的局限性了。要了解你的人工智能系统是否真正安全,你就需要提供真实的数据:客户信息、财务数据或者其他内容。如果所有这些信息你都不愿意交出来,那么你就永远无法评估采用人工智能的安全风险或者生产力优势。
以全开放视角采用人工智能
在企业中使用人工智能肯定存在着危险和风险。但是,可以通过培训、主动管理监督和避免这七个错误来把控这些风险。
时间:2019-07-31 14:00 来源: 转发量:次
声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。
相关文章:
相关推荐:
网友评论:
最新文章
热门文章