AI技术正以前所未有的速度融入千行百业。越来越多的机关、企事业单位开始推进大模型私有化部署,广泛应用于企业办公、科技研发、公共服务等领域。但与此同时,其背后的安全隐患也逐渐凸显。近期多项研究发现,近90%私有化部署的服务器在互联网上“裸奔”,部分模型本身也容易被攻击,存在安全漏洞。
对于数据安全的定义,有专家指出:“狭义的数据安全是免受篡改和破坏,但是广义的数据安全包括数据的可靠性、安全性、服务内容的安全性。”在人工智能时代,数据安全的内涵还在不断拓展。AI技术让企业、个人享受到了前所未有的便利,但同时也带来了更大的数据安全挑战。首先,在训练大模型的过程中,就涉及海量数据,如果处理不当或者违规在未设防模型中处理涉密数据、个人隐私数据、商业敏感数据等,就很可能导致数据被非法获取、泄露。而在数据收集后的处理环节,若犯罪分子恶意利用大模型部署的安全漏洞破坏相关系统,或者注入恶意数据影响模型准确性,将可能导致公共服务中断、企业经济损失、安全事故频发等,干扰经济正常运转和社会有序运行。
事实上,为了保证数据安全,已有不少技术手段应运而生,如数据加密、访问控制、多因素认证机制、模型水印技术等。还有一些企业开始以AI“对抗”AI,通过机器学习等方式识别安全风险,实现快速响应。但与此同时,部分管理者对AI安全的认知相对滞后、风险意识淡薄、单位安全防范教育缺失等,也给数据安全埋下了不少隐患。比如,在使用开源框架上线服务时,为了追求速度就默认开启不设密码的公网访问模式,不配置合理的安全防护措施,忽略了最基本的防火墙配置——这就好比把不设密码的保险箱随意放在大街上,“攻击者”不费吹灰之力便能窃取里面的重要数据。此外,虽然我国已出台多部关于人工智能和网络数据的政策法规,但面对快速发展的人工智能,相关法律还存在一定空白,尚需进一步健全完善。
技术发展得越快,安全保障的需求就越迫切。当AI技术飞速“狂奔”,无论是开发者、企业还是普通用户,都更应提高警惕,共同筑牢AI大模型“安全墙”。在技术层面,AI企业要主动承担安全责任,提高技术水平,利用先进的安全技术保障和运行监测,让大模型运行更安全、可靠、稳定。在安全意识上,企业在部署大模型前,必须做好全面风险评估和安全规划,制定安全方案,自觉开展安全培训,避免因工作失误导致安全事故。从规范层面看,有必要以详细、具体的法律法规明确数据使用的范围、统一AI安全认证的标准和规范等,为AI数据安全提供法治支撑。
AI大模型的应用场景仍在不断拓展,唯有时刻保持警惕、不断创新,才能为AI大模型穿上更有效的“防护服”,进一步筑牢安全基座。
(广州日报评论员 皇甫思逸)