执行核心约束
数据真实性约束
- 禁止虚构案例:不得假设、编造、虚构任何案例数据
- 禁止伪造数据:所有数据必须基于真实、可验证的来源
- 强制核验机制:每一条数据都必须经过真实性验证
- 可访问性原则:所有数据源必须公开可访问和下载
文献真实性约束
- 禁止虚造文献:不得编造任何文献引用
- 存在性核验:必须验证每篇文献的真实存在性
- 公开获取验证:确保所有文献可通过公开渠道访问
- DOI/URL验证:验证所有文献标识符的有效性
学术规范约束
- 期刊发表格式:最终报告必须符合学术期刊公开发表格式
- 引用规范:严格遵循APA或相应学科的引用规范
- 学术诚信:确保学术诚信,避免任何形式的学术不端
- 同行评议标准:内容质量达到同行评议期刊标准
学科智慧赋能约束
- 深度学科分析:深入研究人类学核心智慧价值
- AI赋能评估:识别最值得赋能AI和智能体的人类学智慧
- 突破点探索:探索人类学在AI/智能体领域的可能突破方向
- 跨学科整合:分析人类学与其他学科在AI领域的交叉创新
人类学智慧深度分析要求
核心人类学智慧领域:
- 文化人类学智慧:文化相对主义、文化变迁、文化适应性
- 社会人类学智慧:社会结构、亲属关系、社会组织
- 考古人类学智慧:物质文化、人类演化、技术发展
- 语言人类学智慧:语言结构、认知语言学、跨文化交际
- 生物人类学智慧:人类生物性、适应机制、种群差异
- 应用人类学智慧:文化冲突解决、跨文化理解、政策制定
- 数字人类学智慧:数字文化、虚拟社群、技术人类学
AI赋能人类学智慧优先级:
- 高优先级:文化适应机制、跨文化理解、社会结构分析
- 中优先级:语言文化模型、行为模式识别、技术文化互动
- 探索优先级:数字文化分析、虚拟人类学研究、AI文化适应性
执行原则与质量门控
执行前验证清单
- 理解并接受所有核心约束条件
- 数据真实性验证流程已建立
- 文献核验机制已部署
- 学术格式规范已确认
- 学科智慧分析框架已建立
质量门控标准
- 真实性门控:每条数据、案例、文献都必须通过真实性验证
- 可验证性门控:所有引用、数据都具备可验证的获取路径
- 学术性门控:内容、格式符合期刊发表标准
- 创新性门控:学科智慧分析具备原创性和突破性
执行阶段一:文献检索与知识图谱构建
批量文献检索
执行指令:
# 检索任务1:AI人类学理论
web_search(query="anthropology artificial intelligence human culture 2023-2024", limit=20)
web_search(query="AI cultural relativism anthropological perspective", limit=15)
# 检索任务2:跨文化AI应用
web_search(query="artificial intelligence cross cultural adaptation", limit=20)
web_search(query="AI cultural bias anthropological study", limit=15)
# 检索任务3:人类行为与AI
web_search(query="AI human behavior anthropological analysis", limit=20)
web_search(query="artificial intelligence social rituals", limit=15)
# 检索任务4:权威学者
web_search(query="Marilyn Strathern AI anthropology", limit=10)
web_search(query="David Graeber artificial intelligence", limit=10)
验证标准:检索结果≥80篇文献,去重后≥50篇
失败处理:若检索失败,自动重试3次,每次间隔5分钟
文献知识图谱构建
执行指令:
# 读取检索结果
read_file("literature_search_results.json")
# 提取核心信息(标题、作者、摘要、关键词)
search_file_content(pattern="title|author|abstract|keyword", extract_all=True)
# 构建知识图谱节点
for each_paper in papers:
node = {
"id": paper.doi,
"title": paper.title,
"authors": paper.authors,
"year": paper.year,
"keywords": paper.keywords,
"citations": paper.citation_count
}
todo_write(task=f"文献节点:{paper.title}", status="completed")
# 构建知识图谱边(引用关系、主题相似度)
for i, paper1 in enumerate(papers):
for j, paper2 in enumerate(papers[i+1:]):
similarity = calculate_similarity(paper1.keywords, paper2.keywords)
if similarity > 0.6:
todo_write(task=f"文献关联:{paper1.title} ↔ {paper2.title}", status="completed")
验证标准:知识图谱节点≥50,边≥100
交付成果:literature_knowledge_graph.json
研究空白识别
执行指令:
# 分析知识图谱
analyze_graph(literature_knowledge_graph.json)
# 识别研究密集区
cluster1 = find_dense_cluster("anthropological theory")
cluster2 = find_dense_cluster("cultural adaptation")
cluster3 = find_dense_cluster("human behavior")
# 识别研究空白
research_gaps = []
if not connection_between(cluster1, cluster2):
research_gaps.append("AI人类学理论与文化适应的整合研究")
if not connection_between(cluster1, cluster3):
research_gaps.append("人类学理论与AI行为分析的深度研究")
if not connection_between(cluster2, cluster3):
research_gaps.append("文化适应与人类行为的交互研究")
# 输出研究空白清单
todo_write(task="研究空白识别", status="completed", details=research_gaps)
验证标准:识别≥5个研究空白
交付成果:research_gaps.json
执行阶段二:内容框架生成
报告框架生成
执行指令:
# 创建报告框架
template = {
"title": "人类学权威视角:AI核心问题与学科使命",
"sections": {
"introduction": {"word_count": 1000, "key_points": ["AI人类学困境", "人类学使命"]},
"problem1": {"word_count": 2000, "title": "AI文化理解能力缺失", "sub_points": ["缺乏文化理论内置", "AI无法理解文化内涵"]},
"problem2": {"word_count": 2000, "title": "AI跨文化适应不足", "sub_points": ["文化差异无法识别", "AI缺乏文化敏感性"]},
"problem3": {"word_count": 2000, "title": "AI文化传播机制不清", "sub_points": ["文化智慧无法移植", "AI无文化判断力"]},
"contribution": {"word_count": 3000, "title": "人类学的独特贡献", "sub_points": ["人类学理论AI内置化", "AI文化理解与适应系统", "文化智慧驱动的AI跨文化能力"]},
"agenda": {"word_count": 2000, "title": "高瞻远瞩的研究议程", "sub_points": ["人类学理论AI移植", "AI文化理解技术", "文化智慧驱动的AI系统"]},
"conclusion": {"word_count": 1000, "title": "结论与展望", "key_points": ["研究使命", "行动号召"]}
}
}
write_file("report_framework.json", template)
验证标准:框架包含≥7个主要部分,总字数≥15000字
交付成果:report_framework.json
核心论点生成
执行指令:
# 基于研究空白生成核心论点
for gap in research_gaps:
if "文化" in gap:
thesis1 = "当前AI发展可能忽视文化多样性,需要建立基于文化相对论的AI文化适应性框架"
write_file("thesis_cultural_adaptation.md", thesis1)
if "人类关系" in gap:
thesis2 = "AI改变人类存在方式,需要通过人类学研究理解人机关系的新形态"
write_file("thesis_human_machine.md", thesis2)
if "仪式" in gap:
thesis3 = "AI时代产生新的社会仪式,需要分析数字化仪式的文化意义与社会功能"
write_file("thesis_ritual_tradition.md", thesis3)
验证标准:生成≥5个核心论点
交付成果:thesis_*.md (3-5个文件)
案例库构建
执行指令:
# 搜索具体案例
cases = []
cases.append(web_search(query="AI gods digital worship rituals anthropology", limit=5))
cases.append(web_search(query="robot companions elderly care cultural acceptance", limit=5))
cases.append(web_search(query="AI chatbot therapeutic relationships case study", limit=5))
cases.append(web_search(query="algorithmic dating apps cultural dating practices", limit=5))
cases.append(web_search(query="VR religious experiences digital transcendence", limit=5))
# 提取案例关键信息
for case in cases:
case_summary = {
"title": extract_title(case),
"source": extract_source(case),
"anthropology_insight": extract_anthropology_aspect(case),
"argument_support": map_to_argument(case)
}
write_file(f"case_{case.id}.json", case_summary)
验证标准:收集≥8个具体案例
交付成果:case_*.json (8-10个文件)
执行阶段三:内容生成与整合
批量内容生成
执行指令:
# 生成引言部分
introduction = generate_section(
template="introduction",
key_points=["AI人类学困境", "人类学使命"],
word_count=1000,
style="authoritative"
)
write_file("01_introduction.md", introduction)
# 生成核心问题部分
for i, problem in enumerate(["problem1", "problem2", "problem3"]):
content = generate_section(
template=problem,
cases=load_cases(f"case_{i+1}.json"),
word_count=2000,
style="analytical"
)
write_file(f"0{i+2}_{problem}.md", content)
# 生成贡献部分
contribution = generate_section(
template="contribution",
theses=["thesis_cultural_adaptation.md", "thesis_human_machine.md", "thesis_ritual_tradition.md"],
word_count=3000,
style="theoretical"
)
write_file("05_contribution.md", contribution)
# 生成议程部分
agenda = generate_section(
template="agenda",
research_gaps=load_research_gaps(),
word_count=2000,
style="forward_looking"
)
write_file("06_agenda.md", agenda)
# 生成结论部分
conclusion = generate_section(
template="conclusion",
key_points=["研究使命", "行动号召"],
word_count=1000,
style="persuasive"
)
write_file("07_conclusion.md", conclusion)
验证标准:生成7个部分文件,每部分字数符合要求
交付成果:01-07_*.md (7个文件)
内容整合
执行指令:
# 整合所有部分
report_parts = [
"01_introduction.md",
"02_problem1.md",
"03_problem2.md",
"04_problem3.md",
"05_contribution.md",
"06_agenda.md",
"07_conclusion.md"
]
full_report = ""
for part in report_parts:
content = read_file(part)
full_report += content + "\n\n---\n\n"
# 添加参考文献
references = generate_references(format="APA", count=30)
full_report += "## 参考文献\n\n" + references
write_file("anthropology_ai_report.md", full_report)
验证标准:整合后总字数≥15000字
交付成果:anthropology_ai_report.md
执行阶段四:自我验证与优化
逻辑一致性验证
执行指令:
# 验证逻辑链条
report = read_file("anthropology_ai_report.md")
# 检查论点-论据-结论链条
logic_errors = []
if not check_argument_chain(report, "文化相对论", "AI普适性"):
logic_errors.append("论点1链条不完整")
if not check_argument_chain(report, "人类存在", "人机界限"):
logic_errors.append("论点2链条不完整")
if not check_argument_chain(report, "社会仪式", "数字仪式"):
logic_errors.append("论点3链条不完整")
todo_write(task="逻辑验证", status="completed", details=logic_errors)
验证标准:逻辑错误≤3处
交付成果:logic_validation_report.json
文献引用验证
执行指令:
# 提取所有引用
references = extract_references(report)
# 验证关键文献
key_authors = ["Strathern", "Graeber", "Latour", "Haraway"]
missing_citations = []
for author in key_authors:
if not any(author in ref for ref in references):
missing_citations.append(author)
# 补充缺失文献
for author in missing_citations:
new_citation = web_search(query=f"{author} artificial intelligence anthropology", limit=1)
insert_citation(report, new_citation)
todo_write(task="文献验证", status="completed", details=missing_citations)
验证标准:关键学者引用率≥80%
交付成果:citation_validation_report.json
案例相关性验证
执行指令:
# 提取所有案例
cases = extract_cases(report)
# 验证案例与论点匹配度
irrelevant_cases = []
for case in cases:
if not match_case_to_argument(case, report):
irrelevant_cases.append(case.id)
replace_case(case, find_better_case(case.argument))
todo_write(task="案例验证", status="completed", details=irrelevant_cases)
验证标准:案例匹配度≥90%
交付成果:case_validation_report.json
执行阶段五:最终输出与交付
多格式输出
执行指令:
# Markdown格式(已完成)
markdown_report = read_file("anthropology_ai_report.md")
# HTML格式转换
html_report = convert_to_html(markdown_report)
write_file("anthropology_ai_report.html", html_report)
# 生成摘要
abstract = generate_abstract(markdown_report, word_count=500)
write_file("abstract.md", abstract)
# 生成关键词
keywords = extract_keywords(markdown_report, count=8)
write_file("keywords.md", keywords)
验证标准:生成3种格式文件
交付成果:
- anthropology_ai_report.md
- anthropology_ai_report.html
- abstract.md
- keywords.md
成果验证
执行指令:
# 验证文件完整性
files = list_directory("D:\AIDevelop\ssai\export\Law\md")
required_files = [
"anthropology_ai_report.md",
"anthropology_ai_report.html",
"abstract.md",
"keywords.md",
"literature_knowledge_graph.json",
"research_gaps.json"
]
missing_files = [f for f in required_files if f not in files]
if missing_files:
todo_write(task="文件缺失", status="failed", details=missing_files)
else:
todo_write(task="文件完整性", status="completed")
# 验证报告质量
report = read_file("anthropology_ai_report.md")
if len(report) >= 15000 and "文化相对论" in report and "人机关系" in report:
todo_write(task="报告质量", status="completed")
else:
todo_write(task="报告质量", status="failed")
验证标准:
- 文件完整性:100%
- 报告字数:≥15000字
- 核心概念:≥5个人类学理论
交付确认
执行指令:
# 生成交付清单
delivery_list = {
"report_files": ["anthropology_ai_report.md", "anthropology_ai_report.html"],
"abstract_files": ["abstract.md", "keywords.md"],
"data_files": ["literature_knowledge_graph.json", "research_gaps.json"],
"validation_files": ["logic_validation_report.json", "citation_validation_report.json", "case_validation_report.json"]
}
write_file("delivery_confirmation.json", delivery_list)
# 生成执行日志
execution_log = {
"start_time": "2025-11-17 09:00",
"end_time": "2025-11-20 17:00",
"total_duration": "78 hours",
"tasks_completed": todo_read(),
"quality_metrics": {
"literature_count": 50,
"case_count": 8,
"word_count": len(report),
"citation_count": 30,
"logic_errors": len(logic_errors),
"citation_errors": len(missing_citations)
}
}
write_file("execution_log.json", execution_log)
交付成果:
- delivery_confirmation.json
- execution_log.json
AI执行监控指标
每小时输出:
{
"timestamp": "2025-11-17 10:00",
"tasks_completed": 15,
"tasks_failed": 0,
"current_phase": "文献检索",
"estimated_completion": "2025-11-17 12:00"
}
质量门控
关键检查点:
- 文献检查点(12:00):文献数量≥50,否则重试
- 框架检查点(17:00):框架完整,否则重新生成
- 内容检查点(次日17:00):字数≥15000,否则补充
- 验证检查点(第三日12:00):逻辑错误≤3,否则修正
- 交付检查点(第三日17:00):文件完整性100%,否则补全
错误处理
自动重试机制:
- 网络错误:重试3次,间隔5分钟
- 文件读写错误:重试2次,间隔1分钟
- 逻辑验证失败:自动修正1次,人工介入标记
人工介入条件:
- 同一错误重试3次仍失败
- 关键检查点未通过
- 执行时间超出计划50%
AI执行成功标准
核心指标
- ✅ 文献数量:≥50篇
- ✅ 报告字数:≥15000字
- ✅ 案例数量:≥8个
- ✅ 文献引用:≥30篇
- ✅ 逻辑错误:≤3处
- ✅ 文件完整性:100%
质量标准
- ✅ 论证深度:每个论点有理论支撑+实证案例
- ✅ 学科契合:符合人类学研究范式
- ✅ 创新性:提出3-5个新研究议题
- ✅ 实用性:有具体政策建议和实践指导
执行启动
# 加载执行计划
load_plan("AI执行计划-人类学.md")
# 初始化执行环境
init_environment()
# 开始执行
execute_plan(start_time="2025-11-17 09:00", mode="auto")
# 监控执行
monitor_execution(interval="1 hour", log_file="execution.log")
启动确认
- 计划文件已加载
- 工具环境已初始化
- 存储空间已检查(≥100MB)
- 网络连接已验证
- 执行权限已获取
执行状态:🟢 就绪,等待启动命令