习近平总书记高度重视人工智能发展,明确提出坚持以人为本、智能向善的治理理念,深刻指出“人工智能带来前所未有发展机遇,也带来前所未遇风险挑战。要把握人工智能发展趋势和规律,加紧制定完善相关法律法规、政策制度、应用规范、伦理准则,构建技术监测、风险预警、应急响应体系,确保人工智能安全、可靠、可控”。上述一系列重要论述,为人工智能发展和治理提供了认识论、方法论上的根本遵循。
2025年8月,国务院印发了《关于深入实施“人工智能+”行动的意见》(以下简称《意见》)。其中明确指出要“深入研究人工智能对人类认知判断、伦理规范等方面的深层次影响和作用机理,探索形成智能向善理论体系”。
这一提法的紧迫性和重要性不言而喻。从ChatGPT、DeepSeek、Sora、Seedance、Openclaw到宇树机器人、特斯拉无方向盘“汽车机器人”……人工智能的浪潮正以前所未有的广度与深度重塑人类社会。显然,它绝不仅仅是一场技术革命,更将是一场触及哲学根基、伦理规范与社会结构的深刻变革。
在这场变革中,哲学社科工作者被赋予了沉甸甸的时代使命——价值守望、伦理规约与路径抉择。而其目的,是构建“智能向善”的理论体系与实践共识。这是一个艰巨的任务。所幸,一方面,从工业革命以来,这种“为机器立心”的工作,哲学社会科学工作者已经积累了大量经验;另一方面,博大精深的中华文化也可以为这一理论体系提供丰厚的人文滋养和研究智慧。
这正是“AI人文学”(Artificial Intelligence Humanities)得以破土而出、向上生长的现实语境与时代呼唤,也正是拙著《AI的狐步舞:人工智能的技术、伦理与诗意》一书的旨归所在。

《AI的狐步舞:人工智能的技术、伦理与诗意》,徐锋著,花城出版社2026年3月第一版
范式革命:超越“书斋思辨”式研究
如果用一句话先“简单粗暴”地概括,“AI人文学”就是一门研究“人-AI关系”的文理交叉学科。
这是因为,AI正在重塑传统的人文研究范式。按照AI技术目前加速发展的态势,不难预测,在我们很多人的有生之年应该就能看到更多AI深度融入人类生活的场景,我们“朝九晚五”的时时刻刻、“生老病死”的方方面面,将更多与AI为邻、为伴。
这就必然导致“AI的社会性”现象。进而,关于“人-AI关系”的各种全新命题会大量涌现。这就要求我们对于“人-AI关系”的思考和研究,应该具有更强的想象力、预见性、超前性、系统性和针对性。
作为融合人工智能技术与传统人文研究的新兴交叉学科,AI人文学一方面应该运用人文主义的理论、方法和批判性视角,系统地研究人工智能的本质、发展、应用及其对社会、文化、伦理的深刻影响;另一方面,也要探索如何利用人工智能技术这一新工具和新方法,去拓展、深化乃至重构传统人文研究的边界与范式。这种学科疆界拓展与范式创新,使得AI不再仅是“对象”或“工具”,而是成为人文研究的“环境”和“主体”之一。
因此,我们不妨归纳出AI人文学的两个观照维度:“反思”与“赋能”。反思,即用人文之“尺”丈量AI,对其进行批判性审视和价值引导;赋能,即用AI之“锤”锻造人文新工具,开辟新的研究视域和研究方法。
从第二个维度来看,AI技术演进已经催生、并将进一步深化哲学社科研究的范式革命。《意见》中倡导“推动哲学社会科学研究方法向人机协同模式转变”,正是要求研究者超越传统的书斋式思辨,积极利用人工智能技术构建新型研究方法、机制和环境。比如,传统哲学社会科学研究多建立在“离身认知”的范式之上,强调理性、逻辑与抽象思维,甚至一些时候存在有意的抽象化、远离具体现实的研究倾向。而人工智能尤其是“具身智能”的发展,正在颠覆这一范式,让社会科学从“离身化”逐步走向“具身化”——历史学者可以借助虚拟现实和增强现实技术,沉浸式地“重返”历史现场,获得超越文本的感官体验;社会学家可以设计复杂的交互场景,观察个体和群体在模拟社会情境中的真实反应,从而更精准地把握社会心态……这种“具身化”的研究方法,将身体感知、环境互动纳入认知过程,将极大拓展研究的视域与深度。
正视AI对人类认知与伦理规范的深层影响
《意见》要求深入研究AI对“人类认知判断和伦理规范”等方面的深层次影响和作用机理。这就触及“AI人文学”研究最核心、也是最富挑战性的领域。
当前,AI的影响已远超工具范畴,正深度介入我们的生活。未来,AI技术必将更深刻地影响、甚至颠覆性改变人类文明数千年演进所形成的传统认知判断与伦理范式。从“信息茧房”到“AI幻觉”,从“算法歧视”到可能的“意识涌现”,共同指向一个重要命题:未来,当认知与行为的“主体”不再仅仅限于人类时,我们赖以判断是非、指导行为的伦理体系正面临前所未有的系统性变迁。
首先,AI的“代理性”可能带来“问责链条”断裂。传统社会关系中,伦理责任与行为主体紧密绑定、清晰可溯。然而,具有高度自主学习和一定决策能力的高级AI系统,其决策过程很可能呈现“黑箱效应”,其行为结果及其责任的归因链路具有模糊化的先天不足。诸如“电车难题”这样的“价值对齐问题”必将更多涌现。构建“智能向善”的理论体系,重要任务之一就是为算法建立新的伦理分析模型和法律追责机制,确保AI时代的公平正义依然可及、可溯。
其次,AI的“交互性”或催生新型人机伦理关系。“人-AI”的强交互,加上情感计算和具身智能的加持,可能催生人类对AI产生情感依赖甚至沉迷成瘾问题,加重AI时代的“皮格马利翁情结”。这可能引发全新的伦理问题:我们应如何界定和处理这种“准社会关系”或“拟情感关系”?而当AI能够精准“察情”“拟情”“共情”甚至“控情”时,我们又该如何捍卫人类的情感自主性和心智完整性?
类似的命题还有很多。
引导“智能向善”:AI人文学的核心使命
故而,《意见》提出“探索形成智能向善理论体系”这样的宏伟目标。这一理论体系绝非单一学科的产物,而应是一个融合技术伦理、哲学反思、法律规制与社会实践的复杂系统。其研究方法,既需立足当下,更要“放眼未来”,借助一系列未来学研究和人文思维实验,跳出AI去思考AI、跳出技术去规划和规范技术。
首先,这一理论体系应确立以“人类福祉”为本的价值导向。这意味着技术的发展必须服务于人的全面发展,而非相反。它要求我们在设计AI系统时,就将忠诚、公平、正义、透明、可信等价值内嵌于算法的底层逻辑之中,从源头上防范算法歧视、数据滥用乃至“AI背叛”等风险。
其次,该理论体系要为“人机协同社会”提供新的伦理规范。随着AI深度融入人类社会,人机关系将从“主-从”模式逐渐转向“伙伴”甚至“共生”模式。未来,我们大概率会逐步面临这样的难题:从社会规范和法律层面,如何明确某些AI实体的法律地位、责任归属以及权利义务?
再次,这一理论体系必须提前应对技术对社会结构的长期影响。“AI的社会性”,可能带来对人类就业、财富分配和自我认知的系统性冲击。因此,提出前瞻性的社会调适方案(如,改革教育体系以培养出AI无法替代的创造力、共情力;又如,探索建立适应AI经济学的社会保障与财富分配机制),亦将是“智能向善”理论体系的题中之义。
人类正站在AI文明演进的重要节点。加强“AI人文学”研究,探索智能向善的理论体系,是一项兼具基础性与紧迫性的时代使命。它有助于我们以人类的智慧和审慎,在技术狂飙中锚定人性的价值,在巨变的浪潮里守护文明的航向,坚守人的主体性与尊严。从而,确保人工智能遵循“向善之理”、不脱“从善之轨”。
(本文转自新一期《中华读书报》 作者:徐锋,广东省习近平新时代中国特色社会主义思想研究中心特约研究员;本文系广州市宣传思想文化领军人才课题成果摘登)




































