网宿安全推出大模型安全评估服务,筑牢AI安全防线

发布时间:2025-05-22 14:19  浏览量:7

央广网北京5月22日消息 近年来,大模型在带来服务、营销、产品等领域的全面革新的同时,也伴生出模型漏洞、对抗攻击、数据泄露等风险。诸如DeepSeek遭受大规模恶意攻击、ChatGPT用户聊天数据泄露等事件,一再凸显大模型安全问题的严峻性。

为了应对大模型安全挑战,网宿科技旗下网宿安全正式推出业内首个基于专家深度测试的大模型安全评估服务。该服务通过模拟攻击测试、安全审计与合规审查,提供覆盖模型开发、部署和应用全周期的安全检测与加固方案,可以系统性提升模型与模型应用的安全性、稳健性及合规能力。

网宿科技安全事业部高级技术总监胡钢伟表示,安全是AI产业发展的根基,网宿安全依托深厚的安全攻防能力以及对AI应用场景的理解,推出大模型安全评估服务,将助力企业降低AI创新中的安全风险,使其更专注于业务发展。

大模型安全困境:亟需全面评估方法破局

日前,来自中美英德等 8 个国家的AI 安全领域学者联合发布的一篇系统性技术综述论文指出,大模型安全领域面临的主要挑战之一便是当前评估方法存在显著不足。

在专家看来,单一参考攻击成功率无法全面衡量模型安全性,基于静态数据集的基准评测难以应对各类攻击。尽管对抗性评测不可或缺,但在实际环境中,其全面性、准确性和动态性仍需提升。

网宿安全此次推出的大模型安全评估服务,则采用最新的AI对抗攻击检测技术,结合自动化检测与专家渗透测试,能够确保评估效率和精准度,并从数据安全、算法安全、模型输出安全等维度进行全方位评估,确保评估结果的全面性和准确性。

具体来看,该服务通过模拟攻击测试,可以增强模型的鲁棒性和安全性,提升模型对外部攻击的防御能力;通过数据隐私评估,能够确保数据安全与合规,防止敏感信息泄露;通过伦理与合规性检查,能够确保模型输出内容符合伦理、法规标准;并且,通过模型的可解释性与透明度评估,确保模型在实际应用中可被监控和审计,提升模型决策的可解释性,避免黑箱操作风险。

“通过全面、专业的风险评估,我们能够帮助企业洞悉不管是大模型自身的风险还是外部的攻击风险,并且在大模型应用的过程中始终保障数据安全与合规。”胡钢伟表示。

网宿安全深入企业场景,提供定制化服务

根据世界经济论坛(WEF)与埃森哲最新发布的一项报告,65%的组织在至少一个职能中使用了生成式AI。电信、金融服务和消费品行业在AI采用方面走在前列,而医疗保健、金融服务和媒体娱乐、体育等行业在生成式AI支出方面领先。

值得注意的是,大模型在各行业的应用场景不一,其面临风险也各不相同。对于医疗、金融等对数据隐私和安全性要求极高的行业,定制化、专业性的安全评估将至关重要。

据介绍,网宿安全大模型安全评估服务的优势即在于更贴合业务场景。网宿安全拥有一支由AI安全专家、数据隐私专家组成的团队,深刻理解技术细节与国内外合规政策,能够针对细分的业务场景,提供涵盖需求诊断、专业评估到协助加固的一站式定制化服务,显著提升大模型在垂直领域应用的安全性。

据悉,目前网宿安全已经为医疗、教育、制造等行业客户提供大模型安全评估服务。比如,某国际医疗公司自研了一款AI问答的大模型应用,网宿安全对其进行了全面的大模型应用安全测试评估,发现其存在的安全缺陷,并予以安全加固,为该公司大模型应用安全提供了有力支撑。

可以预见的是,伴随大模型开源、算力成本的降低,AI大模型应用将走向普惠。Gartner预测,到2029年,中国60%的企业将把AI融入其主要产品和服务中,并且这些AI功能将成为收入增长的主要驱动力。

“随着大模型的渗透和深入,大模型安全服务将成为刚需。不过,安全的核心要义始终不变,网宿安全将着眼于攻防研究,以持续的技术和服务创新,为AI时代的安全保驾护航。”胡钢伟表示。

更多精彩资讯请在应用市场下载“央广网”客户端。欢迎提供新闻线索,24小时报料热线400-800-0088;消费者也可通过央广网“啄木鸟消费者投诉平台”线上投诉。版权声明:本文章版权归属央广网所有,未经授权不得转载。转载请联系:cnrbanquan@cnr.cn,不尊重原创的行为我们将追究责任。