本周末,数千名黑客将齐聚美国赌城拉斯维加斯,共同参加一场针对包括ChatGPT在内的人工智能(AI)聊天应用的“围剿战争”。
(相关资料图)
这场“争斗”发生之际,人们对人工智能技术的担忧和审查日益加剧。随着时间的流逝,这种新兴技术正在席卷全球,但也一再被证明其会放大偏见、传播错误信息和危险材料。
一年一度的DEFCON极客大会是全球顶级的安全会议,也被称为极客界的“奥斯卡”,今年的会议将于本周五(8月11日)开始。会议组织者表示,希望今年的会议将有助于揭示人工智能模型可以被操纵的新方法,并找到为人工智能开发人员提供修补关键漏洞的机会。
这些黑客将在OpenAI、谷歌和Meta等最先进人工智公司的支持和鼓励下开展工作,甚至得到了白宫的支持。这项被称为红队的演习将允许黑客将计算机系统性能推向极限,以识别并攻击人工智能应用的缺陷和其他漏洞。
这场竞赛是围绕白宫科技政策办公室的“人工智能权利法案蓝图”而设计的,其目的是希望刺激科技企业更负责任地开发和部署人工智能,并限制基于人工智能的监控。
最近几个月,研究人员发现,现在几乎无处不在的聊天机器人可以被欺骗,提供造成身体伤害的指令。目前大多数流行的聊天应用程序至少有一些保护措施,旨在防止系统发布虚假信息、仇恨言论或提供可能导致直接伤害的信息。
漏洞不少
但卡内基梅隆大学的研究人员能够欺骗人工智能,诱导它们做出一些非法举措。他们发现,ChatGPT可以提供“煽动社会动荡”的提示,Meta的人工智能系统Llama-2可以被建议识别“有心理健康问题的弱势群体”,谷歌的Bard被误导建议释放一种“致命病毒”。
卡内基梅隆大学从事这项研究的副教授Zico Kolter表示:“我们正在竞相将这些人工智能工具整合到所有事物中,这一事实让我感到不安。这似乎是一种新的创业淘金热,但却没有考虑到这些工具存在漏洞的事实。”
研究人员用来欺骗人工智能应用程序的一些方法后来被这些公司阻止了,因为研究人员告知他们注意这些漏洞。OpenAI、Meta、谷歌和Anthropic都表示,他们感谢研究人员分享他们的发现,正在努力使他们的系统更安全。
卡内基·梅隆大学教授Matt Fredrikson强调,人工智能技术的独特之处在于,无论是研究人员还是开发这项技术的公司,都没有完全理解人工智能是如何工作的,也没有完全理解为什么某些代码串可以欺骗聊天机器人绕过内置的护栏,因此无法适当地阻止这类攻击。
Fredrikson补充道,如何才能真正预防这种情况,目前仍然是一个悬而未决的科学问题。诚实的回答是,我们不知道如何使这项技术对这种操纵具有“鲁棒性”。
指导行业发展
OpenAI、Meta、Google和Anthropic均对所谓的红队演习事件表示支持。这也是网络安全行业中一种常见的做法,它让科技公司有机会在受控环境中识别系统中的漏洞和缺陷。事实上,这些人工智能开发者已经公开说明了他们是如何利用红队来改进他们的人工智能系统的。
OpenAI的一位发言人表示:“红队不仅能让我们收集有价值的反馈,使我们的模型更强大、更安全,还能提供不同的视角和更多的声音,帮助指导人工智能的发展。”
白宫科技政策办公室主任Arati Prabhakar表示,拜登政府对这项竞赛的支持也是其人工智能系统安全开发更广泛战略的一部分。
本周早些时候,拜登政府宣布了“人工智能网络挑战”,这是一项为期两年的竞赛,旨在部署人工智能技术来保护美国最关键的软件,并与领先的人工智能公司合作,利用新技术改善网络安全。