近年来,人工智能技术加速迭代,成为全球科技变革的关键驱动力。特别是DeepSeek的火爆,让更多人参与到了AI领域中来。与此同时,大模型与生俱来的“幻觉”问题也引发了广泛讨论。今年两会期间,全国政协委员、360集团创始人周鸿祎聚焦在大模型安全和“幻觉”。
人工智能大模型安全的重要性日益凸显
由于DeepSeek-R1功能强大,且兼具开源、透明、免费等特质,尤其适合在政府与企业开展私有化部署,推进“数转智改”,实现降本增效。在这一背景之下,人工智能大模型安全的重要性日益凸显。
周鸿祎认为,支持安全技术创新与成果转化。建议相关部门及时出台配套政策措施,鼓励具备“安全+人工智能”完整解决方案的链主企业,针对人工智能应用所涉及的基座模型、知识库、智能体等安全问题,以模制模,基于安全大模型技术开展研发工作,加速推动技术成果转化,将安全要素深度嵌入人工智能应用全流程。
同时,组建产业联盟,打造安全产品。引导相关链主企业发挥牵头作用,广泛吸纳产业链上下游企业、科研机构及终端用户,组建人工智能大模型安全联盟,在联盟内部实现技术成果共享,共同开展产品及服务测试,待产品与服务成熟稳定后,向更广阔的市场加以推广,助力大模型安全保障普及至千行百业。

不能因过度追求准确而限制其创造力,对“幻觉”给予柔性监管
DeepSeek通过大模型技术范式的重大突破,让大模型加速走进百行千业,成为推动中国科技进步、经济增长和国家强盛的关键力量。大模型应用过程中,其都会存在“幻觉”,偶尔会生成看似不合理、与事实不符的情况,由此也产生了一些争议。
“‘幻觉’是一把双刃剑,是大模型与生俱来的特点、不可消除,也决定其创造力和想象力。”周鸿祎认为,对于实现AGI(通用人工智能)极其重要,并可在科研、文艺创作等领域大放异彩。在医疗、法律、金融等对准确性要求高的领域,“幻觉”虽然可能出错,但可以利用技术手段,如RAG(检索增强生成)技术,通过比对专业知识库、网络实时信息等方式予以矫正。
进而,他认为,大模型发展不能因过度追求准确而限制其创造力,需要对“幻觉”给予柔性监管,打造支持创新、包容失误的良好环境,争取让更多企业“复制”DeepSeek的成功。建议借鉴“避风港原则”成功经验,对大模型以及相关的产品和服务,实施柔性监管,适度包容大模型的“幻觉”,对于“幻觉”导致的一般性失误,避免直接关停、下架,给予企业自我纠正的机会,促进企业大胆创新、放手竞争。
文/广州日报新花城记者:张露
广州日报新花城编辑:李光曼


















































