从 Prompt 到 OpenClaw,实战主题分析
第八课
郑思尧
上海交通大学 国际与公共事务学院
LDA 的统计原理你在 L05 已经学过。今天:直接用 AI Agent 做主题分析,实战落地。
AI 为你做的
发现了 5 个话题
给每个话题命名 + 关键词 + 示例
分析了话题间的关系
生成了结构化 JSON + 可读摘要
但你要警惕的
换个 Prompt,话题可能完全不同
跑两次,话题标签可能不一样
没有概率分布——无法做回归
AI 可能"幻觉"出文本里没有的话题
Prompt 就是 2026 年的代码——但代码需要测试,Prompt 也需要验证。
好的 Prompt = 好的研究设计。Prompt 越像研究方案,输出越像研究结果。
Prompt 是 2026 年
最核心的分析接口
三条消息就能做主题分析
但输出质量完全取决于 Prompt 设计
对话即分析,但对话需要设计
PART 2 → 如果让 AI Agent 自主跑完全流程呢?
Agent = LLM + 工具调用 + 记忆 + 自主循环。你给它目标,它自己拆解执行。
这学期你们用的就是这个 — ailab.sjtu.edu.cn 上的 OpenClaw 实验环境,每个同学独立容器
对主题分析的意义:你第一次让 Agent 分析投诉,它记住话题结构;下次你说"跟上次对比",它直接从记忆调取上次结果,不用重跑。
Agent 让主题分析
从"你问它答"变成
"它自己干"
一句话指令 → Agent 自主规划 4 步流程
读数据、提取话题、统计可视化、写报告
但你要检查——Agent 也会犯错
PART 3 → 怎么验证 Agent 的输出?
① 源文抽检:每个话题随机抽 5 条原文,检查是否真的属于该话题。准确率 < 80% → Prompt 有问题,要改。
② 交叉验证:用两种不同 Prompt 提取同一语料的话题,对比重叠度。重叠 > 70% → 话题结构较稳定。
实操建议:先用 Agent 做探索(快),确认话题结构后再跑统计模型做正式推断(严谨)。
Agent 的输出帮你确定 k 和话题命名 → 统计模型验证并给出量化结果
信任但要验证
尤其当你用 AI
幻觉、不一致、偏见 — 三种风险
源文抽检、交叉验证、领域审读、文档化
Agent 能帮你验证,但你负最终责任
PART 4 → 行业实战 + OpenClaw 实操
AI 让分析更快,但让人的责任更重——Agent 出一版"完美"报告只要 5 分钟,但你要花 50 分钟检查它遗漏了什么。
在你的工作场景里:
1. 你手上有哪类文本数据?让 Agent 帮你分析,你会怎么写指令?
2. Agent 发现的话题你不认同,怎么办?听 AI 的还是听自己的?
3. 你的领域对 AI 分析的信任度如何?需要什么额外验证?
4. 用 OpenClaw 试一下:上传数据 → 让 Agent 分析 → 抽检结果
Prompt 是代码
Agent 是工具
你是研究者
一句话就能做主题分析
但好结果 = 好 Prompt + 严验证 + 深判断
AI 越强大,人的判断越不可替代
All models are wrong, but some are useful — 人来决定哪个有用