近日,2024数字产业生态伙伴大会举办。大会期间,马上消费常务副总经理蒋宁接受了广州日报等媒体的群访。蒋宁表示,大模型的盈利还需要很长的周期,目前各家公司还处于不同的探索阶段,需要更大的参数和芯片才能满足用户不同场景需求。“未来伴随着大模型能力的提升,会具备广泛的泛化能力,当业务形态比较接近的时候,更多的人会选择该大模型,研发成本就会降低。”蒋宁说道。
“目前ChatGPT5.0迟迟没有出现,是因为其需要更多的海量数据进行训练,这个周期通常很长。”蒋宁表示,如何用更少量的数据、更短的时间周期内实现数据闭环学习是目前大模型发展的一大难题。蒋宁指出,由于并不知道大模型有什么知识,其知识如何更新,“黑箱”特性也是大模型领域非常大的挑战。
针对此类问题,目前马上消费金融正在探索大模型领域的逻辑跟数据知识的分离,并推出了天镜2.0。蒋宁介绍,研发团队大幅降低模型更新数据需求,仅需千分之一数据即可完成模型更新,有效提升模型在线学习能力,使其能够与时俱进,灵活适应动态环境变化,降低更新成本。
蒋宁用人类学习语言来阐述“逻辑跟记忆分离”实现的目标,“学完了英语之后,学会的是语言的逻辑,换成法语的单词,也就可以讲法语,这是解决这个问题的技术点”,蒋宁表示,金融场景的链条非常长,大模型在某一场景经过数据训练后,通过泛化也可以移植到别的金融机构或场景上,这样全行业的研发成本都得以降低。
此外,马上消费还在探索让大模型在金融服务中更有温度。蒋宁表示,马上消费通过与多所高校合作,将心理学理论与大模型结合,使大模型能感知人的情绪,并据此调整交互方式。蒋宁在演讲中提到,目前这一技术已经在马上消费养老机器人项目中得到应用,展现数字化服务中的人文关怀。
据介绍,作为一家技术驱动的数字金融机构,马上消费于 2017 年成立人工智能研究院,推出包括全国首个零售金融大模型“天镜”在内的多款 AI 产品。
文/广州日报新花城记者:夏铭
广州日报新花城编辑:李光曼























































