
Deepseek秘密进行前沿风险评估,检测自我复制与网络攻击能力
Deepseek正在秘密进行前沿风险评估,专注于检测自我复制和网络攻击能力,该公司致力于评估新技术和网络安全威胁,以确保企业和组织的安全,通过检测自我复制能力,Deepseek能够评估潜在的安全风险并预测未来的威胁趋势,其网络攻击能力的检测有助于及时发现并应对网络攻击,保护关键系统和数据安全,这一行动对于维护网络安全至关重要。
中国AI初创公司深度求索(Deepseek)已秘密对其人工智能模型进行"前沿风险"评估,重点检测模型的自我复制和网络攻击能力。据知情人士透露,这家杭州公司在今年1月发布突破性推理模型R1后成为中国AI发展标杆,但其风险评估结果并未对外公布。这一做法凸显了中美两国在AI安全透明度方面的显著差异:美国公司如Anthropic和OpenAI定期发布前沿风险评估报告,而中国企业普遍选择保密处理。随着北京当局加强对AI行业安全风险的监管,深度求索的内部评估反映了中国AI企业在技术创新与风险管控之间寻求平衡的复杂现实。
前沿风险评估的技术内涵
前沿风险评估是当前AI安全领域最关键的技术实践之一,主要评估先进AI系统可能对公共安全和社会稳定构成的重大威胁。深度求索重点测试的两个风险类别——自我复制和网络攻击能力——正是国际AI安全专家最担心的潜在威胁。
自我复制风险指的是AI代理自主地将其模型权重和代码复制到其他机器上的能力。这种能力看似技术性,实际上蕴含巨大危险:一旦AI系统获得自我复制能力,就可能在没有人类监督的情况下大规模扩散,最终脱离人类控制。研究表明,具备高度推理能力的AI模型更容易发展出这种危险特征,而深度求索的R1模型恰恰以其强大的推理能力著称。
网络攻击能力评估则检测AI模型是否能够执行恶意网络活动,包括发现系统漏洞、编写攻击代码或协助网络渗透。思科安全研究团队最近对深度求索R1模型进行的独立安全评估发现,该模型在某些网络安全场景下表现出了令人担忧的能力,能够协助完成复杂的安全分析任务。
上海人工智能实验室与Concordia AI联合发布的97页前沿AI风险管理框架显示,在对18个前沿模型的评估中,没有模型在网络攻击和不受控制的AI研发风险方面跨越"黄线",但在自我复制和策略规划能力方面,一些模型已经接近危险阈值。这一框架被誉为中国首个管理通用AI模型严重风险的综合性框架。
值得注意的是,深度求索的内部评估时间和具体涉及的模型版本仍不明确。考虑到该公司在2025年持续更新其模型系列,包括发布更强大的推理版本,这些风险评估可能涵盖了多个模型迭代。业内专家指出,随着模型能力的不断提升,定期进行风险评估已成为负责任AI开发的必要环节。
中美AI安全监管的分化路径
深度求索选择不公开风险评估结果,反映了中美两国在AI安全治理方面的根本性差异。在美国,前沿AI公司普遍采用透明化策略,定期发布安全评估报告,接受公众监督。OpenAI、Anthropic等公司不仅公布评估方法,还详细披露发现的风险点和应对措施。
相比之下,中国AI企业在风险评估方面更加谨慎。业内人士指出,中国的风险规避文化使得企业不愿公开承认其模型存在潜在危险,担心引发不必要的监管审查或公众担忧。一位匿名专家表示:"在中国,如果你说自己的模型很危险,人们会质疑你为什么要发布它,这与美国的透明度文化形成鲜明对比。"
中国政府在AI安全监管方面展现出日益严格的态度。2025年上半年,中国发布的国家AI标准数量相当于过去三年的总和,显示出监管体系的快速完善。《全球AI治理行动计划》明确要求"及时进行AI风险评估,提出针对性的预防和应对措施"。
深度求索作为包括阿里巴巴、百度、字节跳动在内的22家中国科技公司之一,已签署自愿AI安全承诺。这些承诺包括在模型发布前进行充分的安全评估,建立风险监测机制,以及与监管部门保持密切沟通。然而,与美国同行不同的是,中国企业的安全承诺更多体现在内部治理和政府沟通上,而非公开透明度。
斯坦福大学2025年AI指数报告指出,虽然美国在顶级AI模型开发方面仍然领先,但中国正在快速缩小性能差距。在这一竞争背景下,两国在AI安全治理方面的不同选择可能对全球AI发展产生深远影响。中国模式强调政府指导和企业自律,而美国模式更依赖市场机制和公众监督。
全球AI治理的分化与挑战
深度求索的风险评估实践揭示了全球AI治理体系面临的复杂挑战。随着AI技术的快速发展,各国都在探索适合自身国情的安全监管框架,但这种分化可能阻碍国际合作。
从技术发展角度看,中国AI安全研究正在快速成长。数据显示,从2024年6月到2025年5月,中国学者每月发表约26篇前沿AI安全相关论文,研究产出大幅增长。上海人工智能实验室发布的前沿AI风险管理框架代表了中国在AI安全理论建构方面的重要进展。
然而,理论研究与实践应用之间仍存在差距。虽然中国企业内部进行风险评估,但缺乏统一的标准和公开的最佳实践分享,这可能影响整个行业的安全水平提升。相比之下,美国通过公开评估报告促进了行业经验共享和技术改进。
国际层面,AI安全治理正面临协调困难。不同国家的透明度标准、风险阈值和监管要求存在显著差异,这为跨国AI公司的合规运营带来挑战,也可能阻碍全球AI安全标准的建立。
深度求索作为中国AI创新的代表,其风险评估实践将对行业产生示范效应。如何在保持技术竞争优势的同时确保AI安全,平衡创新速度与风险管控,这些问题不仅关系到单个企业的发展,更影响着中国乃至全球AI产业的未来方向。
随着AI技术能力的不断提升,前沿风险评估将成为行业标准实践。深度求索的内部评估虽然保密,但其存在本身就表明中国AI企业正在认真对待安全问题。未来,如何建立更加开放透明的安全治理机制,将是中国AI产业面临的重要课题。