将来,网络安全将几乎使用AI完全自动化,许多人说我们已经参加了新的AI燃料数字武器竞赛。
在DARPA的捕捉之后,他们去年举行的旗帜网络安全竞赛是世界上13个最先进的网络安全进攻和防御性人工智能(AI)代理商试图互相破解的,同时修复自己的脆弱性,MIT现在正在寻求自己的网络服务挑战,以及他们的网络服务挑战,他们已经击败了餐桌。
The team at MIT have created a five month long competition, in partnership with the data scientist community Kaggle, that will see offensive and defensive AI algorithms go at each other all day, and all night, until one wins – and whatever the result is it’s fair to say that this will inevitably be the future of cybersecurity and cyberwarfare, and, thanks to British cybersecurity firm Darktrace, automated cyberdefence, in part至少,已经是现实了。
竞争将使不同的研究人员的算法相互挑战,试图互相混淆和欺骗,希望这场战斗能够对如何使机器学习系统更加强化未来的攻击产生新的见解。
“催化欺骗深层神经网络和设计无法愚弄的深层神经网络的研究是一个绝妙的主意,”怀俄明大学的助理教授杰夫·克莱恩(Jeff Clune)说,他研究了机器学习的极限。
比赛将有三个组成部分。
一个挑战将涉及简单地试图混淆机器学习系统,以使其无法正常工作。另一个将涉及试图迫使系统对某些内容进行错误的分类。三分之一将涉及制定最强大的防御能力,所有结果将在今年晚些时候的一次大型AI会议上介绍。
在许多行业中,机器学习和深度学习尤其正在迅速成为必不可少的工具 - 该技术涉及将数据馈送到一种特殊的计算机程序中,指定特定的结果,并让机器开发自己的算法以实现结果。深度学习通过调整巨大的,互连的数学模拟神经元网络的参数来做到这一点。
毕竟,早就知道机器学习系统可以被愚弄。例如,您进入收件箱的所有垃圾邮件不仅是偶然发生的,所有这些垃圾邮件都是由垃圾邮件发送者设计和调整的,他们试图尽力逃避现代算法垃圾邮件过滤器。
但是,近年来,研究人员表明,即使是最聪明的算法有时也会以令人惊讶的方式被误导。例如,在图像中具有近乎人为识别物体的深度学习算法,可以通过看似抽象的图像或随机图像来欺骗图像中的对象,这些图像会利用这些算法所寻求的低级别模式。
“对抗机器学习比传统的机器学习更难以学习 - 很难判断您的攻击是否强劲,或者您的防守实际上是弱的,” Google Brain的研究人员伊恩·古德福(Ian Goodfellow)说,该研究人员致力于研究和应用机器学习,他帮助安排了比赛。
随着机器学习的普遍性,人们担心这种攻击可以用于利润和恶作剧,并且随着越来越多的公司开始依靠AI,并继续将其嵌入其核心系统和架构中,即使它仍然被视为黑匣子,即使它被视为犯罪分子,也可以欺骗或愚蠢的方式,这些AI可能会造成真正的伤害 - 实际上是虚拟的和物理上的。
Goodfellow说:“计算机安全肯定正在朝着机器学习方向发展,“坏人将使用机器学习来自动攻击,我们将使用机器学习来防御。”
例如,从理论上讲,罪犯和恐怖分子可能会试图在机场欺骗声音和面部识别系统,甚至张贴了欺骗自动驾驶汽车的视觉系统的海报,导致他们崩溃,而这些只是我们所有人前面的幸福的未来场景中的三个。
Kaggle, which was bought by Google in March, and which is now part of their Google Cloud Platform, has become an increasingly valuable breeding ground for algorithm development, and a hotbed for talented data scientists, many of whom are also helping to monitor every catch in the Pacific and create new algorithmic, and automated, hedge funds, something I discussed in Frankfurt at the start of the year.但是,就这场比赛而言,Goodfellow和另一位Google Brain研究员Alexey Kurakin提出了收购前挑战的想法。
Kaggle的联合创始人和CTO本杰明·哈姆纳(Benjamin Hamner)表示,他希望比赛能够引起人们对迫在眉睫的问题的关注。
他说:“随着机器学习变得更广泛地使用,了解对抗性学习的问题和风险变得越来越重要,我们认为这项研究最好是公开创建和公开共享的,而不是封闭的门。”
同时,克莱恩(Clune)表示,他热衷于比赛测试据说可以承受进攻的算法。
他说:“我的钱在网络上继续在可预见的未来被愚弄。”
至于我的钱?Well, last year Google tried to assess AI’s natural “killer instincts,” and ultimately they managed to demonstrate that more powerful AI’s were more likely to “kill” their weaker siblings, and as AI becomes more capable, and as computing becomes more powerful, with new chemical, photonic, quantum and even DNA computing on the horizon, we’re inevitably heading down a new road where our fate, and the fate of the systems we rely on, will be at the这些新的自动进攻和国防系统及其后代的怜悯。
最重要的是,尽管去年,世界上一些顶级人工智能头脑都举办了世界末日游戏,试图为一个越来越想将AI束缚在所有事物和令人担忧的部分的世界中,为世界越来越多地提出了最坏的情况和解决方案吗?好吧,他们很擅长找出最坏的情况,但是解决这些方案的解决方案吗?好吧,不是那么热 - 实际上,您可以说这是冰冷的。有一天,请记住,某些人的AI已经可以自我设计,发展和自我复制,而且它们也开始自我自我编码的开始,很有可能,很快而不是稍后,有人会释放一个先进的自主AI“进入网络” - Elon Musk始终热衷于宣讲。在那之后,所有赌注都可能关闭。
至于我,尽管我只是很高兴,但我写了一篇关于基于AI的网络安全的自动化未来的文章,而没有提及Skynet -Ooops!布列塔尼·斯皮尔斯怎么说?我做了Agin…

