1. 首页 >IT资讯 > 正文

机器学习系统或神经网络在现代社会越来越普遍

导读 与疾病预防疫苗相同的编程技术可以保护机器学习系统免受恶意网络攻击。这项技术是由澳大利亚国家科学机构CSIRO的数字专家组开发的,最近在

与疾病预防疫苗相同的编程技术可以保护机器学习系统免受恶意网络攻击。这项技术是由澳大利亚国家科学机构CSIRO的数字专家组开发的,最近在美国加州长滩举行的国际机器学习大会上进行了展示。

机器学习系统或神经网络在现代社会中变得越来越流行,并被广泛应用于交通管理、医疗诊断和农业中。它们也是自动驾驶汽车的关键部件。

它们在初始训练阶段运行,在此期间,它们被喂以给定任务的数万次可能的迭代。然后,产生的算法具有学习的能力——增加其自身的可能性并相应地采取行动,而无需进一步的人工输入。

然而,尽管它们是高效的,机器倾斜系统——像任何计算机驱动的机制一样——仍然容易受到黑客的攻击。这样做的主要方式是引入“噪声”——干扰和扭曲输入信号的额外数据点——从而使外部元素被错误分类。

这种方法在商业术语中被称为将“对立的例子”引入系统。通过添加噪声(通常不是很大的噪声),机器学习算法可以被误导,将熊猫图像归类为长臂猿。

更具体地说,鉴于自动驾驶汽车的兴起,它们可能会受到黑客的攻击,并被说服将停车标志归类为绿色交通灯。

使机器学习系统具有反破坏性是一个生动的研究领域。最近的研究发现,现实世界的例子很容易使用,而不是使用比智能手机摄像头更复杂的东西。

理查德诺克领导的研究人员采用的最新方法受到了公共卫生的启发。

在医学上,疫苗接种依赖于将身体免疫系统暴露于病原体(如导致流感或脊髓灰质炎的病毒)的虚弱或死亡版本的理性想法,这促进了特定抗体的发展。然后免疫系统“记住”病原体,这样下次它遇到它时——完全地、真实地——它会识别它并立即消灭它。

诺克和他的同事以同样的方式处理他们的任务。

他解释说:“我们的新技术使用类似于疫苗接种的过程来防止对抗性攻击。

“我们实现对手的弱版本,例如对图像集进行微小的修改或扭曲,以创建更“困难”的训练数据集。当算法针对暴露于小剂量失真的数据进行训练时,所获得的模型更强大,并且没有对抗攻击。”

这种方法还处于早期阶段,还没有针对真实情况下的真实恶意入侵尝试进行测试,但结果是有希望的。它们在这里提供的预打印纸中有详细描述。

虽然显然需要更多的测试,但现阶段没有证据表明接种疫苗可能导致计算机自闭症。

郑重声明:本文版权归原作者所有。转载文章只是为了传播更多的信息。如果作者信息标注有误,请第一时间联系我们修改或删除。谢谢你。

标签:

免责声明:本文由用户上传,如有侵权请联系删除!