DeepSeek全球爆火:敲响AI狂潮下的安全警钟

2025-02-21 10:25

随着DeepSeek热度的高涨,大家对AI创新潜力的期待日益增强,但与此同时,安全问题也日益凸显,成为不容忽视的焦点。DeepSeek自面世后所遭遇的一系列安全事件,无疑敲响了AI行业的安全警钟,警示我们在追求技术创新的同时,必须高度重视安全防护。本文将深入探讨AI行业所面临的安全挑战及如何主动实施防御策略,以期为行业健康发展提供有力的支持和保障。


什么是DeepSeek?

DeepSeek-R1是由中国人工智能初创公司DeepSeek开发的大型语言模型(LLM),作为领先的开源推理模型,其性能可与人工智能巨头OpenAI的o1系列相媲美。DeepSeek-R1基于MIT许可证发布,其独特之处在于主要采用强化学习进行训练,这与传统的LLM训练方法大相径庭。这一创新凸显了小型开源模型的崛起趋势,并展示了DeepSeek在工程设计中如何优先考虑性能与成本效益。


全球最大的信息技术和业务解决方案公司IBM董事长兼首席执行官Arvind Krishna指出,DeepSeek的经验表明,优秀的工程设计能够同时优化性能和成本。IBM的研究显示,专用模型可将AI推理成本降低多达30倍,从而显著提升训练效率和可访问性。


截至2025年1月31日,DeepSeek的R1模型在大语言模型基准测试(Chatbot Arena)中位列第六,表现优于美国科技巨头Meta的Llama 3.1-405B和美国人工智能巨头OpenAI的o1等模型。然而,R1在知名网络安全公司WithSecure的新的AI安全基准测试中表现欠佳,暴露出AI开发中的一个关键问题:性能往往优先于安全性。


DeepSeek安全事件回顾

DeepSeek自问世以来,一系列由安全漏洞所触发的问题相继暴露,其严重性与潜在后果各不相同。以下,我们将依据严重程度从重到轻的顺序,逐一剖析这些安全事件:


▶︎ 分布式拒绝服务(DDoS)攻击:

2025年1月,DeepSeek刚亮相,便遭遇了前所未有的猛烈DDoS攻击。此次攻击的规模高达3.2Tbps,相当于每秒传输130部4K电影的数据量。这场攻击导致DeepSeek官网瘫痪长达48小时,用户无法完成注册与访问,全球范围内的客户和合作伙伴均受波及,经济损失高达数千万美元。


▶︎ 跨站脚本(XXS)攻击:

在DDoS攻击余波未平之际,DeepSeek又陷入了严重的跨站脚本(XSS)攻击危机。2025年1月31日,研究人员在DeepSeek的CDN端点上发现了一个基于DOM的XSS漏洞,该漏洞源于对postMessage事件处理不当,使得攻击者能够在未进行适当来源验证或输入清理的情况下,将恶意脚本注入文档上下文。这一漏洞可能使攻击者窃取用户敏感信息、破坏用户会话,甚至实施网络钓鱼攻击。


▶︎ ClickHouse数据库泄露:

安全研究人员发现DeepSeek基础设施中的ClickHouse数据库存在重大安全漏洞,暴露了超过100万行包含敏感信息的日志流。


▶︎ 模型中毒攻击:

攻击者利用DeepSeek API中的漏洞注入对抗样本,意图操纵模型的行为和输出。此类攻击不仅可能产生长期的负面影响,降低模型性能,引入偏见,甚至可能使模型执行恶意代码。而DeepSeek对大型公开数据集的依赖,更是加剧了这一风险,因为攻击者可能会将恶意数据注入这些数据源,从而“毒害”模型。


▶︎ 越狱攻击:

安全研究人员发现DeepSeek的模型存在易受越狱攻击的弱点,模型容易被诱导产生违反其设计初衷或安全准则的输出,这不仅可能生成有害、不当的内容,甚至可能触犯法律。


OpenAI安全事件回顾

尽管DeepSeek这位AI领域的新星因一系列安全漏洞而备受瞩目,但我们同样不能忽视的是,即便是像OpenAI这样的资深AI巨头,也面临着严峻的安全挑战。


在OpenAI的早期开发阶段,它就遭遇了多次攻击和漏洞事件,这充分表明,构建坚不可摧的AI安全体系是一条既复杂又漫长的道路。OpenAI所经历的种种,为整个AI社区提供了宝贵的经验和启示,强调了面对日新月异的安全威胁,我们必须持续不断地进行改进和适应。


2023年3月24日,ChatGPT的缔造者OpenAI在其官方博客上披露了一起数据泄露事件。据悉,由于系统中的一个错误,部分用户得以窥见其他活跃用户的聊天记录及部分付款信息,包括付款地址、信用卡类型、到期日期以及卡号的最后四位数字。


同年6月,知名威胁情报团队Group-IB发布报告称,在短短数月内,恶意软件窃取了超过12组ChatGPT的登录凭证。这些账户被研究人员在暗网上发现,并与其他被盗数据一同出售。


据《纽约时报》报道,2024年,一名黑客成功侵入了OpenAI的内部消息系统,窃取了关于该公司AI技术设计的敏感信息。据悉,这些信息是从一个员工讨论最新技术的在线论坛中提取的。然而,OpenAI并未公开报告这一2023年的数据泄露事件。


即便到了2025年,OpenAI的安全挑战仍未平息。有研究人员报告指出,OpenAI的ChatGPT爬虫存在安全漏洞,可被利用对任意网站发起DDoS攻击。攻击者只需向ChatGPT API发送一个包含大量重复URL的请求,就能触发爬虫对目标网站进行大量访问。此外,该漏洞还可能被用于绕过限制,让爬虫回答查询。


如何保护AI模型

在保障AI模型安全的征途上,DeepSeek安全事件为我们敲响了警钟,强调了零信任安全模型不可或缺的重要性。这一模型主张,无论是内部还是外部实体,在获取信任前都必须经过严格的身份验证。AI系统在授权访问API、数据库或模型权重时,应实施持续的身份验证流程,遵循最小权限原则,并结合上下文信息进行验证。


为此,企业可以通过部署基于角色的访问控制(RBAC)、基于属性的访问控制(ABAC)以及多因素身份验证(MFA),构建起坚实的防线,有效抵御未经授权的访问,从而减轻内部威胁的风险。


模型权重泄露作为泄露事件中的重大隐患,其对AI决策造成的篡改威胁不容忽视。因此,在AI模型的训练和部署阶段,我们必须采用HMAC、RSA或ECC等加密签名技术,确保模型的完整性不受侵害。同时,实施可信执行环境(TEE)等安全隔离措施,为AI模型筑起一道坚实的防护墙,防止其遭受未经授权的篡改。


DeepSeek安全事件还暴露了企业内部安全管理的短板,这些安全事件本可通过加强员工的网络安全意识培训来加以缓解。企业应定期组织培训,覆盖工程师、研究人员及全体员工,培训内容应涵盖安全编码实践、网络钓鱼识别技巧、注入风险防范以及AI特定攻击手段等多个方面。此外,通过模拟网络钓鱼活动和安全演习,我们可以进一步提升团队识别和应对安全威胁的能力。


鉴于传统安全架构难以应对大型AI模型带来的挑战,企业应将安全性深深植根于企业文化之中,转向系统级的安全防护措施。这要求我们采取一种全面的策略,覆盖AI系统从模型开发到基础设施管理的全生命周期。


为了防止发生XSS漏洞事件,平台必须严格清理用户生成的代码输入。具体措施应包括确保输入/输出的全面清理,并实施脚本沙盒机制,避免直接渲染和执行未经验证的AI生成代码,从而确保平台的安全性。


与此同时,企业还应通过持续的红队测试,对所有AI接口、API及后端服务进行全面的安全渗透测试。此外,推出漏洞赏金计划,鼓励道德黑客以负责任的方式披露漏洞,不仅可以提升系统的安全性,还能有效避免这些漏洞被恶意利用,为企业的AI安全保驾护航。


文章来源:https://cybernews.com/editorial/how-deepseeks-security-failures-shape-the-future-of-cyber-defense/,本文由网安加社区编译。