导读 | 人工智能系统会被用来干扰人类认知;人工智能系统将成为黑客,在社会、经济和政治系统中寻找漏洞,然后以前所未有的速度、规模和范围来利用这些漏洞。 |
2021年4月15日,美国哈佛大学肯尼迪学院贝尔弗科学与国际事务中心发布《即将到来的人工智能黑客》报告。报告指出,人工智能在一定程度上会对社会产生负面影响,主要体现在两个方面:一是人工智能系统会被用来干扰人类认知;二是人工智能系统将成为黑客,在社会、经济和政治系统中寻找漏洞,然后以前所未有的速度、规模和范围来利用这些漏洞。报告主要观点摘编如下。
计算机无处不在,影响着人类生活的方方面面,使得黑客攻击可以出现在任何地方。经济、社会和政治系统的发展都依赖于人类做出正确决策,人工智能系统可能通过多种不同方式入侵人类大脑,使人类认知受到干扰。例如通过在社交媒体发布虚假信息干扰公众注意力,破坏公众对现实的认知;通过夸大恐怖主义的威胁力度,来攻击人们的风险评估认知系统等。不同政治、经济和社会系统易受人工智能黑客攻击的程度不同。基于多种规则的复杂系统和受社会规范约束的系统更易受到攻击,前者是因为更容易产生意料之外的后果,后者是因为系统的可解释性导致其存在更多漏洞。
一是人工智能可能被人类蓄意用于入侵某个系统。例如操作员可能会向人工智能系统提供世界税法或世界金融法规,让其寻找一系列有利可图的黑客攻击方式。
二是人工智能可能会自主地、无意地入侵某个系统。
这两种情况都很危险,但后者更加危险,因为人类可能永远不知道系统被入侵。
人工智能的出现,从速度、规模和危险性三个方面,对入侵经济、社会和政治系统的黑客攻击产生影响。人工智能系统不会像人一样受到伦理道德的约束,会以人类无法预料的方式入侵系统。首先,人工智能系统使得黑客攻击以惊人的速度进行,这是一种本质的变化,过去一个需要几个月或几年的入侵过程,可能只需几天、几小时甚至几秒钟;其次,人工智能系统一旦发现可利用的漏洞,将以人类无法预测的规模进行黑客攻击;最后,人工智能系统不断扩大的覆盖范围,使得黑客攻击更具危险性。
现代人工智能系统本质上是一个黑盒,数据从一端进去,处理结果从另一端出来。与人类解决问题的方式不同,人工智能系统会比人类考虑更多可行的解决方案。人工智能系统的决策可能会超出人类的理解范围,而强制进行解释可能会带来更多的限制,从而影响人工智能系统做出的决策。2017年,美国国防高级研究计划局启动“可解释的人工智能”研究计划,寻求系统能力和可解释性之间的平衡。在不久的将来,随着人工智能系统复杂性的增加,其可解释性也将越来越差。
当人工智能系统能够发现软件漏洞,并利用这些漏洞在全球范围内对计算机网络进行大规模黑客攻击时,人类将处于前所未有的危险当中。为此,报告提出了两条防御措施:一是要建立快速有效应对黑客攻击的弹性管理架构,例如修订国家法律法规和社会规章制度;二是要加强人类与人工智能系统间的交互理解,充分了解人工智能系统扮演人类角色时可能出现的风险。
原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/136623.html