几个月前,国务院印发的《关于深入实施“人工智能+”行动的意见》,在显要位置罕见地明确指出要“深入研究人工智能对人类认知判断、伦理规范等方面的深层次影响和作用机理,探索形成智能向善理论体系”。
这一提法的新意和重要性不言而喻。而所谓“对人类认知判断的深层影响”,眼下大家感受最直观的,可能就是“信息茧房”效应。这一概念,是由学者凯斯·桑斯坦在《信息乌托邦》中提出,描述的是人们基于偏好选择信息,最终陷入认知闭环的现象。今年的全国两会上,不少代表委员也就此话题提出了担忧与真知灼见。
但事实上,“信息茧房”在人类历史上,并非新鲜事物,而是早已有之。从知识拂晓时分,到铅字围城、电波壁垒,直至今天的算法迷宫,它在不同的历史阶段,在媒介演进中不断变形、演化,借助技术迭代的助攻,展现出惊人的进化能力和认知过滤能力。
茧房之弊:不做陷入算法的“信息囚徒”
近些年,算法逻辑已经成为社交媒体的“显逻辑”,算法推荐也已成为资讯传播的“主渠道”。这一现状带来的负面效应有目共睹。
银发群体成为信息茧房直接受害者。由于老年人特殊的生理心理状态、技术短板、知识结构,这一群体的信息茧房问题更为突出和无奈。其极端化表现则是,针对老年人的信息诱导和金融诈骗。诈骗分子借助“信息茧房绿色通道”,诱导老年人进入他们预设的骗局。
算法的过度优化催生强大“作弊”魔力。通过实时监测浏览习惯,精准掌握用户阅听偏好,从而“优化”推送策略;通过后台插件“偷听”用户日常对话,从而立刻推送相关定制内容和商业资讯……商业平台的逐利天性,导致算法的过度强势。
年轻群体开始警惕算法推荐的信息沼泽。一项调研显示,过度依赖算法推荐的Z世代正呈现“三降”特征:深度阅读时长下降,跨领域知识关联能力下降,事实核查意愿下降。当然,年轻一代中也有不少人已经开始警醒。有媒体就算法推荐话题对大学生展开问卷调查,结果显示,78%的受访者认为自己需要减少对算法推荐的依赖,68.9%的受访者认为推荐算法应该更加透明。
破“茧”之道:四个维度促进算法向善
算法的“千人千面”特性,为分众化传播提供了强大的技术便利。然而,当平台以“技术中立”自诩或自辩时,实则早已将商业目的或价值观巧妙编码进了算法权重。比如,不少社交媒体平台热搜榜单,其筛选、排行机制并不透明,有时也存在显见的不公允。其中,就有着不言而喻的流量考量和导向。这些都会加剧“信息茧房”问题。
如何破“茧”?不同的研究者给出了不同的努力路向,一些国家也意识到这个问题并积极面对。如2024年,全球首部全面规范AI的法规《人工智能法案》在欧盟通过,法案对内容推荐、电商推荐等推荐系统均进行了适当的风险提示。
笔者认为,我国应从四个维度寻求“破茧”,塑造健康的算法伦理——
对受众而言,要认知“升维”。某种意义上说,信息茧房的出现,是人的认知惰性与算法的“心机”共同作用的产物。因此,人与算法的关系,应该摆脱单向的依从,进而转向动态的博弈。比如,除了要具备基本的媒介素养(Media Literacy),公众还应有意培养“算法素养”(Algorithmic Literacy)。实证研究结果证明,当受众(用户)对“主流媒体报道有哪些特征”以及“平台推荐机制是怎样一回事”等问题有更多了解后,他们对虚假新闻、有害观点、“茧房式资讯”的辨识力会显著提升。
对平台而言,须技术向善。尚处在野蛮生长初期的AI算法,其底层逻辑尚存一些先天缺陷。比如,它将人性简化为可计算的数据点,将社会价值压缩成可量化的KPI,从而导致技术伦理的偏航。尤其当AI的“深度伪造”(即所谓“一本正经说瞎话”)与商业逻辑相交织时,算法的“茧房”效应必将几何级倍增。
因此,有识之士早已在呼吁重建注意力经济的价值坐标系。在商业“攻心”与公共资讯的算法推荐关系之间,亟须厘清边界、予以规范。比如,平台企业应克制自身追求片面逐利、短期流量的冲动,以更长远眼光,在传统“用户黏性—商业变现”的二维模型上,增加“社会效益”“认知健康度”“文化多样性”等维度,从而追求技术向善的更大格局、更健康发展。
对行业而言,应共建标准。单个平台“良心发现”式的算法优化,就如孤岛筑坝,在算法逐利的巨浪中力量甚微。算法伦理和边界意识,更需要用“行业标准”的形式来固化。唯有构建跨平台治理网络,才能“不让老实企业吃亏”,从而真正实现全行业认知生态的修复。比如,不妨设置行业性“信息多元化指数”,平台在对某个单一受众进行算法推送时,其内容总量中必须强制插入一定比例的“非偏好内容”。又如,对视频平台,是否可以通过强制性“知识拓展参数”,引导用户接触多元内容,避免资讯和观念的窄化?这些,都值得探索。
对监管而言,需制度迭代。笔者很赞同一个比喻:传统监管手段,往往如同在数字公路上设置限速标志;而算法时代的治理需要构建更为完整的“交通生态系统”——这种转变将监管角色从“交警”拓展为“交通规划师”。对算法的监管,既要有“事后问责”,又应强调“治未病”和“过程治理”。如,不妨设立数字时代的“算法说明书”制度,要求平台必须说明“为何推荐这条而非那条”。当监管实现“全生命周期”的科学引导,科技伦理有望从道德倡导为主,转变为制度敬畏与行业自律同向而行。
总之,当AI技术日益主导信息筛选和分众传播,我们不妨以新兴的“AI人文学”视角进行思考和探究,既看清人性弱点,也理解机器逻辑。我们要做的,不是与算法割席,而是探索新的数字契约——让推荐系统从“投其所好”转向“启其未识”,从“流量至上”进化到“价值优先”,让算法从“迎合者”变为“引导者”。唯如此,方能让AI技术的发展,既尊重个性又连接共识,方能让算法成为支撑人类理性的台柱,而非缠绕认知的茧丝。这也正是笔者《AI的狐步舞:人工智能的技术、伦理与诗意》一书的旨归所在。
(徐锋 作者是AI人文学研究者、博士,本文为广州市宣传思想文化人才项目成果摘登)
















































