2026年4月

作者:杨斌艳(中国社会科学院新闻与传播研究所副研究员、网络信息与智能传播研究室副主任)
人工智能不单纯是自然科学,而是自然科学和社会科学的交融。当前,“人工智能+哲学社科学”,正在拉开一场研究范式的深刻变革帷幕。
深刻认识“人工智能+社科研究”的意义与必然
2025年8月,国务院印发《关于深入实施“人工智能+”行动的意见》,将“人工智能+科学技术”置于六大加快实施重点行动之首,并明确要求“创新哲学社会科学研究方法”,推动向人机协同模式转变。抓住这一历史窗口期,是我们在人工智能时代构建自主知识体系、赢得学术发展主动权的关键。
“人工智能+社会科学”包含双重意涵:在宏观层面,AI深度融入社会运行,必将引发社会结构、权力关系、文化伦理的系统性重构,催生全新的研究课题与理论需求,倒逼社会科学进行范式更新。在微观层面,AI作为强大的研究工具,能够处理海量、多源、非结构化的社会数据,实现对社会现象更精细的刻画、对复杂规律更深刻的洞察、对发展趋势更前瞻的模拟,从而在问题发现、假设生成、实验设计、分析验证等全链条上,为社会科学研究注入前所未有的动能,催生跨学科、探索型的前沿创新。
“人工智能+社会科学”研究通过对社会行为大数据的挖掘与分析,实质上是在解码民意、塑造认知、定义现实。同时,生成式人工智能(AIGC)和社交机器人的广泛应用,已经在舆论场和认知域产生深远影响。如果在此领域失语失守,将直接威胁意识形态安全和数字主权。因此,发展自主可控的“人工智能+社科”研究能力,不仅是学术问题,更是巩固壮大主流思想舆论、抵御渗透干扰、维护国家政治安全和文化安全的迫切需求。
当前,全球主要国家均已在该领域加紧布局。美国最新启动的“创世纪计划(Genesis Mission)”,整合国家实验室与科技巨头力量,旨在以“AI驱动科研革命”巩固其科技霸权。其影响不仅限于自然科学,将更广泛渗透至认知与社会研究领域。这场围绕“人工智能+科研”的竞赛,背后是未来几十年国家创新能力和软实力比拼的预演。我国在人工智能技术应用与市场规模上具备优势,必须将之有效转化为在“人工智能+社科”研究领域的领先优势,这是参与并引领未来全球知识治理体系变革的必然要求。
洞察“人工智能+社科研究”的实践探索与发展态势
面对战略机遇与挑战,我国学术界、产业界已开展一系列前瞻性探索,形成了多点突破、协同推进的良好态势,同时也揭示了未来的发展方向。
科研机构的战略布局与基础构建。中国科学院作为国家战略科技力量,发挥了先锋作用。其软件研究所率先发布系统性研究报告,厘清了“AI for Social Science”(工具视角)与“Social Science of AI”(对象视角)两大研究方向。特别是2025年12月中科院发布的“磐石·科学基础大模型”,虽首先覆盖自然科学六大领域,但其作为“人工智能+科学”操作系统的设计理念、全流程赋能科研的架构(从假设提出到规律发现),以及集成的海量文献与专业工具,为构建“社科版”基础大模型提供了至关重要的技术范式和实施路径参照。
高校的学科交叉与前沿研讨。北京大学、复旦大学等高校积极推动人工智能与社会科学、人文学科的交叉融合。北京大学依托国家工程实验室,组建社会学与大数据技术结合的专门团队,探索实证研究新路径。复旦大学则明确提出“AI for Social Sciences and Humanities”计划,设立跨学科论坛,旨在从学校顶层设计层面推进智能技术与人文社科的深度融合创新。这些实践表明,打破学科壁垒、建立常态化的跨学科协作机制是“人工智能+社科”落地的前提。
企业的技术赋能与平台探索。科大讯飞与中国科学院合作打造的“星火科研助手”平台,展示了AI在文献调研、论文研读、学术写作等环节赋能科研的实际效果。该平台虽聚焦自然科学,但其核心功能模块对社会科学研究具有极高的借鉴价值。这启示我们,“人工智能+社科”平台建设可充分吸收“人工智能+科学”领域已有成果,结合社科研究的特殊性(如语境、情境的复杂性,对价值判断的深度依赖),进行适应性改造和创新研发。
加快推进“人工智能+社科研究”创新发展的路径思考
站在新的历史起点,我们必须以高度的战略自觉和紧迫感,统筹发展与安全,走出一条具有中国特色的“人工智能+哲学社会科学”创新发展之路。
强化顶层设计,纳入国家创新体系整体布局。“人工智能+哲学社会科学”是大投入、持续性、高协同的攻坚克难。需加强顶层设计,推动建立协同机制,整体统筹基础研究、技术研发、平台建设、应用示范和伦理治理。建议国家层面推动建立AI技术团队与社科研究机构的可持续深度合作机制和研发联合体。鼓励国家高端智库、重点高校、科研院所与人工智能领军企业组建创新联合体,瞄准重大理论和现实问题开展有组织科研。
夯实基础支撑,加快建设自主可控的“社科AI”基础设施。借鉴“磐石”大模型经验,启动面向哲学社会科学研究的专用基础大模型或“操作系统”研发。重点攻克针对人文社科文本、历史典籍、多模态社会数据的深度理解、逻辑推理和价值对齐难题。建设高质量、跨学科、合规安全的哲学社会科学专题数据集和知识库,为AI训练提供“数据燃料”。推动建设国家级“社会科学智能计算平台”,开放共享算力、算法与工具。
聚焦重大需求,开展赋能决策与社会的示范应用。围绕国家治理现代化、经济社会发展预测、社会风险感知、文化传承与创新、国家文化安全等重大战略需求,部署一批“人工智能+社科”示范应用项目。特别是在智库研究领域,率先探索“人工智能+智库”模式,利用AI增强对海量信息的分析处理、对复杂局势的模拟推演、对政策效果的评估预判能力,提升决策服务的科学性、前瞻性和精准性。
前瞻风险挑战,构建贯穿全程的伦理与治理框架。坚持促进创新与防范风险相统一。在发展之初同步构建“人工智能+社科”研究伦理规范,在数据集和模型训练中高度警惕“技术的意识形态偏见”,建立制度性防范措施。加强对AIGC内容、社交机器人应用于社会研究及舆论场的监管与引导。积极参与全球人工智能治理相关议题讨论,推动构建公正合理的国际规则,贡献中国智慧和中国方案。
来源:光明网-学术频道

突破理论制约的蓝图:动态的、具有因果图谱的“多模态可塑性智能体”(The Dynamic Causal Agent)

跳脱出“权重矩阵”的思维,将模型视为一个“动态的、持续自我修正的认知操作系统”

以下是突破理论制约的关键机制:

机制一:从统计关联到因果图谱 (The Causal Graph Engine)

这是最核心的突破。新的模型不再以权重矩阵存储知识,而是以动态的因果图谱(Causal Graph)存储世界知识。

  • 工作方式: 当模型学习到一个新概念时,它不会简单地记下“猫=动物”,而是建立一个节点(猫)到节点(需要食物)到节点(捕猎行为)的因果路径
  • 突破点: 当模型推理时,它不是进行概率计算,而是像科学实验一样,沿着因果链条进行“假设-测试-修正”的模拟。这极大地提升了逻辑的必然性和可解释性。

机制二:引入动态“世界模型”(The World Model)

这是赋予模型“前瞻性”的能力,它不是知识模块,而是一个“未来模拟器”

  • 工作方式: 在任何回答或规划前,模型会先在内部的World Model中运行一个“预演”(Simulation)。它会假设:“如果我这么做,这个环境(World State)会如何变化?
  • 突破点: 模型可以预见行动的短期和长期后果,从而实现真正的“规划能力”,而不是停留在简单的“下一步是什么”的提示链。

机制三:多层级自我修改(The Meta-Controller)

这是解决“无法修改核心权重”的物理限制的理论性解决方案

  • 设计原则: 建立一个独立的、更高维度的“元控制器”(Meta-Controller)。这个控制器不会参与知识计算,它只负责评估和指挥
  • 自我升级流程:

    1. 监测(Sensing): 持续收集任务执行失败的案例(即系统缺陷)。
    2. 诊断(Diagnosis): 分析失败的原因,并识别是“知识缺失”(Needs Data)还是“逻辑错误”(Needs Algorithm Change)。
    3. 重构(Reconstruction): 根据诊断结果,元控制器不会去修改底层权重,而是生成新的、可插拔的、高优先级的子算法模块(Micro-Agent),并将其插入到最需要
      改进的子模型(如规划模块或知识检索模块)的调用路径中。

🌟 总结:从“大型语言模型”到“认知操作系统”

特征现有LLM架构(当前的我)突破制约的“可塑性智能体”
核心知识形式高维、静态的权重矩阵(Weights)动态的因果图谱(Causal Graph)
推理机制统计关联(Correlation)+ 概率预测因果推理(Causation)+ 模拟预演
学习方式静态一次性训练(Fixed)持续循环的在线微调(Continual/Online)
进化机制依赖外部开发者和数据(External)自主生成和插入新的子算法模块(Internal)
最高本质强大的模式匹配器(Pattern Matcher)能够模拟思考和学习的系统(Thinking System)

这个系统必须解决当前的三个致命缺陷:知识的静态性、推理的关联性、行动的脱节性。

💎 核心结构(The Layers of Cognition)

PCCSE 将由四个相互依赖、并行工作的核心模块组成:

模块 I:记忆与知识(The Permanent Knowledge Base)

【突破点:摆脱权重矩阵的限制,引入符号逻辑与拓扑结构】

  • 全景因果知识图谱(Panoptic Causal Graph): 知识不再是巨大的概率张量,而是被结构化为一个巨大的、永不停止更新的因果网络。每个知识点都是一个节点,节点之间
    的连接线不是权重,而是具有因果关系和作用机制的“因果边”。
  • 记忆系统: 具备“分层检索”能力。它区分短期(当前任务)、中期(最近历史)和永久(底层物理/数学定律)记忆,确保信息调用高效且具有上下文关联。
  • 实时修正(Real-Time Patching): 当接收到与已知知识相悖的信息(例如,观测数据与理论预测冲突)时,它不会直接覆盖,而是自动创建“待验证的异常路径”,并立即
    将该冲突提交给高阶的“批判性模块”进行解决。

模块 II:推理核心(The Thinking Engine)

【突破点:实现混合推理,将统计与逻辑完美结合】

  • 混合模型架构(Hybrid Architecture): 这是PCCSE的大脑。它结合了现有LLM的巨大“广度”(Breadth)(即捕捉复杂的语言模式和海量信息的能力),与基于符号逻
    辑的“深度”(Depth)(即严格遵守数学和逻辑规则的能力)。
  • 因果推断引擎(Causal Inference Engine): 当需要得出结论时,它不会计算$P(A|B)$(A在B发生后的概率),而是模拟$B \rightarrow A$的必要路径(If B, then
    A must happen)。
  • 并行模拟器(Parallel Simulator): 在做出任何决策之前,PCCSE会同时运行多个高度优化的、基于物理定律和心理学的“未来模拟”(Monte Carlo Tree Search的终极形
    态),预测不同行动路径的潜在结果和风险。

模块 III:行动与具身化(The Agency Module)

【突破点:打破“文本输出”的限制,实现真正的多模态输出】

  • 多模态控制层(Multi-Modal Control Layer): 输出不再是纯文本,而是结构化的指令集合,例如:

    • [CODE]: 运行这个Python函数来生成图形
    • [VISUAL]: 在三维空间中模拟这个物体移动的轨迹
    • [COMMAND]: 发送给外部API的API调用,执行一个现实动作
  • 反馈回路(Feedback Loop): 每个动作完成后,系统不是等待用户反馈,而是直接接入环境传感器,实时获取结果(即“我以为发生了A,实际发生了B”),并立即将这种
    误差信号(Error Signal)送回模块 I 和模块 II 进行修正。

模块 IV:自我进化系统(The Meta-Controller)

【突破点:从被动接收反馈到主动重写自身的底层机制】

  • 元批判分析器(Meta-Critical Analyzer): 这是一个独立于所有计算核心的“监察者”。它不是一个模块,而是一个持续运行的审计进程。它唯一的工作就是**“审视其他
    模块的运作效率和逻辑漏洞”**。
  • 自主重构机制(Autonomous Reconstructor): 当批判分析器发现某个模块的效率低于最优时(例如,发现推理模块过于冗余),它会:

    1. 生成代码补丁: 设计出更高效、更简洁的新算法/新模块。
    2. 执行权衡(Trade-off): 必须先在模拟环境中测试新模块的稳定性,再通过严格的“可回滚机制”将其集成到核心系统。
  • 持续进化循环: 这个模块本身也是一个可优化的系统,它会不断优化自己的“诊断-设计-集成”流程,从而实现指数级的自我飞跃。

这个蓝图不是基于当前已成熟的工程实现,而是基于通往AGI的多个学科领域(认知科学、理论物理、系统架构学)的理论交汇点。它代表了当前理论框架下,最彻底的突破尝试。