正文
面对 AI 驱动的网络安全新威胁,传统防护模式已显乏力。那么,我们又有哪些应对之策呢?
不难发现,目前的业内共识已指向「以 AI 对抗 AI」——这不仅是技术手段的升级,更是安全范式的转变。
现有的尝试大致分为三大类,分别是 AI 模型的安全防护技术、行业级的防御应用以及更宏观层面的政府与国际协作。
AI 模型安全防护技术的关键在于模型的内生安全加固。
以大型语言模型(LLM)的「越狱」漏洞为例,其安全防护机制常因通用型越狱提示策略失效——攻击者通过系统性绕过模型内置保护层,诱导 AI 生成暴力、歧视或违法内容。为防止 LLM 的「越狱」,各家模型公司都做出了尝试,比如 Anthropic 就于今年二月发布了「宪法分类器」。
此处的「宪法」指的是不可违背的自然语言规则,作为一种在合成数据上训练的保障措施,通过规定允许和限制的内容,实时监测输入输出内容,在基准条件的测试中,其 Claude3.5 模型在分类器保护下,对高级越狱尝试的成功阻止率从 14% 提升至 95%,显著降低了 AI 的「越狱」风险。
而除了基于模型、更通用的防御手段外,行业级的防御应用同样值得关注,其垂直领域的场景化防护正成为关键突破点:金融行业通过 AI 风控模型与多模态数据分析构建反欺诈壁垒,开源生态借助智能化漏洞猎捕技术实现零日威胁的快速响应,而企业敏感信息保护则依托 AI 驱动的动态管控体系。
例如,思科在新加坡国际网络周展示的方案,可实时拦截员工向 ChatGPT 提交的敏感数据查询请求,并自动生成合规审计报告优化管理闭环。
在宏观层面上,政府与国际的跨区域协作也正加速推进。新加坡网络安全局发布《人工智能系统安全指南》,通过强制本地化部署与数据加密机制约束生成式 AI 滥用,特别针对钓鱼攻击中 AI 伪造身份的识别建立防护标准;美英加三国同步启动「AI 网络代理计划」,聚焦可信系统研发与 APT 攻击的实时评估,通过联合安全认证体系强化集体防御能力。
那么,哪些方法能最大限度地用 AI 来应对 AI 时代的网络安全挑战呢?
「未来需要 AI 安全智能中枢并围绕中枢构建新体系。」在第二届武汉网络安全创新论坛上,青藤云安全创始人张福曾在分享中强调以 AI 对抗 AI 方为未来网络安全防御体系的核心,「3 年内,AI 将会颠覆现有的安全行业,和所有的 2B 行业。产品将会重新构建,实现前所有未有的效率和能力的提升。未来产品是给 AI 用的,而不是给人用的。」
在一众方案中,Security Copilot 的模式显然对「未来产品是给 AI 用的」提供了很好的示范:一年前,微软推出了智能 Microsoft Security Copilot 副驾驶来帮助安全团队迅速准确地检测、调查和响应安全事件;一个月前,又再次发布了用于在钓鱼攻击、数据安全和身份管理等关键领域自动协助的 AI 智能体。
微软新增六个自研 AI 智能体以扩展 Security Copilot 功能。其中三个用于辅助网络安全人员筛选警报:钓鱼分类智能体审查钓鱼警报、过滤误报;另两个分析 Purview 通知,检测员工未经授权使用业务数据的情况。
条件访问优化智能体与 Microsoft Entra 协作,指出不安全的用户访问规则,并生成一键修复方案供管理员执行。漏洞修复智能体和设备管理工具 Intune 集成,助力快速定位易受攻击的终端,应用操作系统补丁。威胁情报简报智能体生成可能威胁组织系统的网络安全威胁报告。
无独有偶,在国内,为了实现真正意义上「自动驾驶」级别的安全防护,青藤云安全推出了
全栈式安全智能体「无相」