所谓有人在的地方就有江湖,人工智能作为一项技术,本身并没有所谓的好坏之分,因为用的人不同,而有了好与坏。有人拿它为全人类谋福利,这就是好,也有人拿它做恶意活动,这就是坏。
换言之,人工智能的发展,不只是要看到它能够用来帮助到人类的地方,还要看到和预防不怀好意的人,用来作恶。然而,相比着应用的火热发展,一直以来人们却对人工智能技术的恶意使用缺乏足够的关注。
这无疑是极为危险的,因为人工智能强化的学习能力特别令人担忧,尤其人工智能可以不用人类指导,靠训练达至超人的智力水平。人工智能的恶意使用会对数字、物理和政治安全构成迫在眉睫的威胁,因为它允许大规模、精细目标、高效的攻击。
为此,如今已经有相关的研究人员,对这一领域进行了专门的研究。据报道,近日OpenAI、牛津大学、剑桥大学等14家机构和高校共同发布了一份《人工智能恶意使用》报告,该报告详细讲述了人工智能技术潜在的「恶意」用途,以及预防措施。这是由剑桥、牛津、耶鲁大学的技术与公共安全研究人员,连同隐私与军事专家共25人所撰的《恶意使用人工智能:预测、防范与缓解》,对一些国家、罪犯与攻击者潜在滥用人工智能一事提出警告。
专家们在报告中列举了未来5年,人工智能可能出现的潜在威胁和新型攻击以及化解的方式。研究员布伦戴奇表示,“报告的重点不是描绘一个悲观和黯淡的画面,我们有很多可以开发的防御措施,而且我们还有很多需要学习的东西。这篇报告是一个行动呼吁。”
报告审查了越来越多的关于人工智能安全风险的学术研究,并呼吁各国政府和政策和技术专家合作并化解这些危险。更指出电子、物理及政治三个方面的人工智能,最容易被恶意操控。
为了缓解这些威胁,该报告给出了5点建议:人工智能和机器学习研究人员应该承认其研究成果是双刃剑;政策制定者应该与技术人员密切合作,调查、预防和缓解人工智能可能的恶意使用方式;应该向电脑安全等其他高风险技术领域学习一些方法,将其应用于人工智能领域;应该在这些领域优先形成规范和道德框架;讨论这些挑战时所涵盖的利益相关者和专家范围应该扩大。
对此,你持什么样的态度?