我用AI把1200条客户咨询"炼"成87个FAQ,只花了6小时
我用AI把1200条客户咨询"炼"成87个FAQ,只花了6小时
我们客服组有个不成文的规定:遇到没见过的问题,先去微信群里搜聊天记录。
这句话说出来有点好笑,但我相信至少有一半做过运营或客服管理的人,看到这里会心一笑——因为你们也这么干过。
去年底,我接手了一个"历史遗留问题":三个渠道(微信客服、企业微信群、工单系统)积累了超过1200条客户咨询记录,散落在不同平台,格式五花八门。新人入职,只能靠老员工口口相传;客服遇到边缘问题,只能"凭经验"回答。
有人提议整理一套FAQ库。我们算过,人工整理一次至少要3天,但整理完3个月就过时了,因为产品在迭代、政策在变,没人有精力跟进维护。所以这件事一拖再拖,变成了一个所有人都知道该做、但没人真正动手的"重要不紧急"任务。
直到我决定用AI来做这件事。
这篇文章是完整的操作手册,不是概念科普。我会把每一步的Prompt、踩过的坑、最终产出,原原本本地写清楚。
---
一、在动手之前,先想清楚整体方案
很多人第一反应是:把原始记录全部丢给AI,让它"帮我整理成FAQ"。
我第一次也是这么干的。结果是一堆废话——AI给我生成了一份看起来很完整、实际上全是正确的废话的文档,问题太宽泛,答案太官方,没有一条是我们实际会遇到的具体场景。
根本原因是:你没有给AI一个清晰的任务结构。正确的工作流应该分四个环节,顺序不能乱:
数据清洗 → 问题聚类 → 答案生成 → 结构化输出
每个环节的目标不同,对应的Prompt策略也完全不同。把四件事混在一个Prompt里,等于让AI同时做四件事,结果必然是四件事都做得稀烂。
关于工具选择,这里给一个简单的判断框架: | 场景 | 推荐方案 | | 数据量 < 500条,不想写代码 | 手动分批,直接在对话框操作 | | 数据量 500-3000条,有基础Python能力 | 写简单脚本调API,批量处理 | | 数据量 > 3000条,需要定期自动化运行 | 完整的Python工程 + 稳定API服务 |我的1200条记录用的是手动分批处理,每批约80-100条,分批投喂,最后汇总。模型用的是 Claude Opus 4.6(上下文窗口大,对长文本的理解更稳定)和 GPT-5.1(答案生成时语气更自然)。
---
二、实战全流程:含完整Prompt和踩坑记录
Step 1:数据预处理——乱的数据进去,烂的结果出来
原始记录长这样(脱敏后):
[2024-11-03 14:23] 用户A:我的订单怎么还没到啊,昨天下的单
[2024-11-03 14:25] 客服:您好,请问订单号是多少?
[2024-11-03 14:26] 用户A:1234567890
[2024-11-03 14:28] 客服:您的订单预计明天送达,物流单号是...
[2024-11-04 09:11] 用户B:能不能退款啊我不想要了
[2024-11-04 09:15] 客服:您好,请问是什么原因想退款呢?
这样的记录直接喂给AI,它不知道哪句是"问题",哪句是"闲聊",哪句是"已解决",哪句是"未解决"。
预处理三件事:1. 脱敏:删除用户ID、订单号、手机号、地址等隐私信息,替换为[用户ID]、[订单号]等占位符
2. 去噪:删除纯闲聊("好的谢谢"、"哦哦")、系统自动回复、重复记录
3. 格式统一:把每一条完整的咨询(从用户发问到问题关闭)整理成一个独立的"对话单元",格式如下:
【咨询记录-001】
用户问题:我的订单昨天下的,今天还没到
客服回复:订单正在配送中,预计明天送达
解决状态:已解决
这一步我花了大约1.5小时,主要是手动过滤明显的噪声数据,把1200条压缩到了约900条有效记录。
---
Step 2:问题聚类——让AI把相似问题归成一类
这是整个流程最关键的一步,也是我踩坑最多的地方。
失败版Prompt(别用这个):请帮我把以下客户咨询记录分类整理成FAQ。
[粘贴记录...]
输出结果:AI给了我一份按"物流"、"退款"、"产品"、"其他"四个大类划分的列表,每类下面随机塞了几条记录。完全没用。
改进版Prompt(用这个):你是一个专业的客服数据分析师。我会给你提供一批客户咨询记录,请完成以下任务:
1. 识别每条记录中用户的核心问题意图(一句话概括,去掉情绪化表达)
2. 将相似意图的问题归为一个聚类,给每个聚类起一个简洁的标题
3. 统计每个聚类包含的记录数量
4. 输出格式严格按照以下模板:
聚类标题:[XXX]
- 包含记录数:[N]条
- 典型问题表述:
- "[原始问题1]"
- "[原始问题2]"
- 用户核心意图:[一句话描述]
注意:
- 聚类粒度要适中,不要太宽(比如"物流问题"太宽),也不要太细(每条都单独一类)
- 如果一条记录涉及多个问题,按主要问题归类
- 聚类数量控制在15-30个之间
以下是咨询记录(第1批,共80条):
[粘贴记录...]
对比输出:
失败版给我4个大类,改进版给了我23个聚类,粒度刚好——"物流查询"、"发货时效确认"、"物流异常处理"被分成了三个独立聚类,而不是混在一起。
⚠️ 第一个大坑:AI会把"退款申请"和"售后维权"混在一起。这两类用户的情绪和诉求完全不同,如果混在一起生成答案,答案会变得模棱两可。
>
解决方法:在Prompt里明确加一条:"'退款'类问题请区分'正常退款申请'和'投诉维权类退款',分别单独建类。"
---
Step 3:答案生成——从聚类结果生成标准答案
聚类完成后,我拿到了23个问题类别。接下来是为每个类别生成标准答案。
失败版Prompt(别用这个):请为以下问题类别生成FAQ答案:
聚类标题:发货时效确认
用户核心意图:用户想知道下单后多久能发货
输出结果:"尊敬的用户,感谢您的咨询。我们承诺在您下单后的合理时间内为您安排发货,具体时效以实际情况为准……"
——这种答案放到FAQ里,用户看了等于没看。
改进版Prompt(用这个):你是一个有5年经验的电商客服主管,正在为团队编写内部FAQ手册。
我会给你一个问题聚类的信息,请生成一个标准FAQ条目。要求:
1. 问题:用用户最常见的口语化表述,不要用官方语气
2. 简短答案:1-2句话,直接回答核心问题,适合客服快速复制粘贴
3. 详细答案:3-5句话,包含具体信息和操作指引
4. 适用条件:说明这个答案在什么情况下适用,什么情况下需要转人工
5. 标签:3-5个关键词,用于搜索
语气要求:
- 简洁直接,不要"尊敬的用户"这类套话
- 口语化,像真人在回答,不像机器人
- 如果有具体数字(如时效、金额),用[XX]占位,后续人工填写
以下是聚类信息:
聚类标题:发货时效确认
包含记录数:47条
典型问题表述:
- "什么时候发货啊"
- "我下单多久能发出来"
- "今天下单今天能发吗"
用户核心意图:用户想确认下单后的预计发货时间
改进版输出示例:
## FAQ-007:发货时效
问题:我下单之后多久能发货?
简短答案:工作日下午[X]点前下单,当天发货;之后下单次日发货。
详细答案:
我们的发货时效是:工作日[X]点前完成付款的订单,当天安排发货;[X]点后或节假日下单的订单,下一个工作日发货。发货后会短信通知您物流单号,一般[X]小时内可查询到物流信息。如果超过[X]小时仍未更新,可以联系我们核实。
适用条件:
- 适用:标准商品、正常库存状态
- 需转人工:预售商品、定制商品、大件商品(另有时效说明)
标签:发货时间、发货时效、什么时候发、当天发货
⚠️ 第二个大坑:AI生成的答案里会出现具体的政策数字(比如"7天无理由退款"、"48小时内发货"),但这些数字不一定和你们的实际政策一致。
>
解决方法:在Prompt里明确要求"涉及具体数字和政策的地方,用[XX]占位,不要自行填写"。生成完成后,统一由运营或法务人工核对填写。
---
Step 4:结构化输出——生成可直接导入的格式
最后一步,把所有FAQ条目整理成可以导入Notion/飞书/语雀的格式。
请将以下FAQ条目转换为Markdown表格格式,包含以下列:
| 编号 | 问题 | 简短答案 | 适用条件 | 标签 | 最后更新 |
同时生成一个按标签分类的目录,方便快速检索。
这一步基本不会出问题,AI对格式转换的执行很稳定。
---
三、踩坑合集——这些弯路你不用再走
把分散在各步骤的坑,加上一些流程外的坑,集中整理如下:
坑1:Token超限,批处理策略每批记录不要超过80条(约4000-6000个token),留足输出空间。我用的是"批次标注法":每批Prompt开头加"这是第X批,共Y批",方便最后汇总时对齐。
坑2:AI编造不存在的政策如上文所说,用[XX]占位符,生成后人工核对。建立一个"政策核对清单",把所有需要填写具体数字的地方统一列出来,交给有权限的同事确认。
聚类完成后,要做一次"合并检查":把所有聚类标题列出来,再问AI:"以下聚类中,有没有可以合并的?请指出并说明理由。"通常能发现2-3对重复聚类。
坑4:答案太长,客服不愿意用FAQ的目的是让客服快速复制粘贴,不是让用户阅读长文。"简短答案"严格控制在2句话以内,这是铁律。
坑5:FAQ上线后没有迭代机制建议在FAQ库里加一列"反馈标记",客服使用时如果发现答案不准确或过时,可以直接标记。每月跑一次更新流程,把标记的条目重新生成。
坑6:忽略"未解决"的咨询记录预处理时不要只保留"已解决"的记录。"未解决"或"转人工"的记录往往代表最难回答的边缘问题,这些问题更需要被纳入FAQ(哪怕答案是"此类问题需要人工处理")。
---
四、最终成果 + 可复用的Prompt资产包
数据结果:- 原始记录:1200条 → 有效记录:约900条 → 最终FAQ条目:87个
- 预估人工整理时间:3天 → 实际耗时:6小时(含预处理1.5h + 聚类2h + 答案生成2h + 收尾0.5h)
这套流程我们现在每月跑一次,已经成了固定SOP。每次新增的咨询记录大约200-300条,增量处理只需要1-2小时。
本文所有Prompt汇总: | 步骤 | Prompt核心指令 | 关键参数 | | 数据预处理 | 格式统一模板 | 每批≤100条 | | 问题聚类 | 识别意图 + 归类 + 统计数量 | 聚类数控制在15-30个 | | 答案生成 | 口语化 + 占位符 + 适用条件 | 简短答案≤2句 | | 结构化输出 | Markdown表格 + 分类目录 | 包含最后更新时间列 |---
💡 关于API选择的一个实际问题
在处理这批1200条记录时,我遇到的最大瓶颈不是Prompt写法,而是上下文窗口限制和并发稳定性。如果你的数据量更大(比如超过5000条),或者你想把这个流程自动化跑批,就需要一个稳定的API接口。
我目前在用的是 [api.884819.xyz](https://api.884819.xyz),支持 GPT-5.1、Claude Opus 4.6、Deepseek R1 等主流模型,按量计费,没有月租——对于这种一次性的数据处理任务性价比很高,不用为了跑一次数据去开一个月的订阅。国产模型(Deepseek/千问等)完全免费,新用户注册即送体验token,注册只需要用户名+密码,不需要邮箱验证,直接开用。
---
有读者问我:"FAQ库做好了,但客服每次还是要手动去搜,能不能让AI直接接管问答?"这个问题问到点上了。FAQ库只是第一步——下一篇我会写怎么把这个静态FAQ库接入一个简单的AI问答机器人,不需要写代码,用现有工具就能实现。客服问一句话,机器人自动从FAQ库里匹配最相关的答案,置信度低的再转人工。
如果你也有类似需求,点个收藏,我更新了会第一时间通知你。
---
本文由8848AI原创,转载请注明出处。关注8848AI,带你从零开始学AI。#AI教程 #Prompt技巧 #客服运营 #FAQ #ChatGPT #Claude #8848AI #效率工具