Open AI发表论文剑指AI技术恶意使用的后果,不仅危害财产,还可能造成恐慌

年度订阅用户可加入科技英语学习社区,每周科技英语直播讲堂,详情查看“阅读原文”


Open AI 于 2018 年 2 月 20 日发表了一篇关于“恶意使用 AI 技术的论文(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation),同时这篇论文也指出如何预防潜在恶意使用 AI 技术的方式。与 Open AI 一同完成此论文的包括牛津大学人类未来研究所、剑桥大学现存风险研究中心、美国智库“新美国安全中心”以及电子前沿基金会等机构。



论文指出,包括机器学习在内的不少 AI 技术都在以极快的速度发展着。医疗、翻译等越来越多的领域都将会被AI技术所改变,在这种情况下,对AI技术的恶意使用也就越来越值得警惕,这便是Open AI 这篇论文的研究意义。


Open AI 将滥用 AI 技术的威胁分成了三种:


  • 数字安全:使用 AI 来自动执行网络攻击中所涉及的任务,这会加大网络攻击的效率,尤其是那些劳动密集型的网络攻击。同时 Open AI 也表示,网络黑客们也有可能利用 AI 来合成人类的指纹、声纹,也有可能用 AI 来自动寻找软件漏洞。


  • 物理安全:使用无人机以及其他无人设备进行攻击。这种威胁会对民众造成人身伤害,尤其是当自动驾驶、自动飞行等系统遭到恶意使用时,其造成的损害不可预计。


  • :使用 AI 来执行监视、游说、欺骗,从而造成公众恐慌、社会动荡等危害。这种恶意使用 AI 的方式对一些权力集中的国家格外有效。


为了应对这三种威胁方式,Open AI 提出了四种预防计划:


1. 决策者应与技术部门保持密切联系,并分配预算以支持研究人员调查、缓解潜在的恶意行为。


2.AI 技术的研究者应该认真地考虑其研究方向的两面性,并将其负面影响作为优先和研究重点来考虑,在该技术真正威胁到人类之前,主动与相关人士接触。


3. 实践出真知,解决威胁的最好办法就是多去使用。如数字安全领域,研究者应多去参与防御性工作,以让技术达到更高的成熟度。


4. 扩大利益相关者群体,与更多行业的专家进行交流,从而更全面地预防 AI 的恶意使用。


Open AI 的论文并不是十分乐观,该机构指出,随着 AI 系统的多样性增加,威胁的种类也在增多。首先,现有的攻击方式会扩大,这是因为 AI 带来了巨大的劳动成本缩短。其次会因为 AI 技术而引入新的攻击方式,而且是不可预测的。其三,AI 技术进步的同时,其他软件、硬件技术也在进步,所以很有可能会改变现有攻击方式的典型特征,从而躲过传统的监测机制。


此外,Open AI 的董事会成员伊隆·马斯克宣布退位,但是仍会赞助该企业。董事会席位与业务管理层的性质不同,马斯克的离开并不会改变 Open AI 的研究方向,同时这也会减轻马斯克身上的压力,从而投入更多精力于负债累累的特斯拉上。


-End-


参考:

https://arxiv.org/ftp/arxiv/papers/1802/1802.07228.pdf