做 AI 产品,我会先判断场景是否真的适合交给模型——高认知负担、信息碎片化、输出需要被结构化复用,才是 AI 的主场。判断完之后,我更多的精力放在工作流拆解、输出约束和效果评估上,而不是"做一个能聊的界面"。
先把用户真实任务链路拆开,识别"找信息 / 整理信息 / 生成内容"中真正的阻塞点,再决定 AI 应该切入哪一步、承担多大比重。
开放式任务拆成更稳定的子任务,约束输入输出 schema,减少结果发散,让模型的"灵光一现"变成可以被复用的产品能力。
用相关性 / 完整性 / 可执行性 / 一致性四个维度评估输出,而不是停留在"看起来很聪明"——这也是我对 AI 产品"可交付"的底线。
我选择了两个最能代表自己 AI PM 思考方式的 agent 项目。一个聚焦内容生成,一个聚焦信息获取与情报综合。
面向中学生 / 大学生辩手的 AI 写稿工具,覆盖立论 / 驳论 / 质询 / 结辩四类稿件。基于 RAG 架构接入实时联网检索,论据自带数字角标与可溯源链接,从源头治理"AI 造假"。
为了让 Agent 真正理解"辩论"这个垂直领域,我把教练经验系统化为一份 SKILL.md(405 行)——它既是 Claude Agent Skill 格式的标准产物,也是我对"PM 如何设计 prompt"这件事的完整答卷。
最高优先级规则:所有数据必须来自真实搜索,标注出处,搜不到就标记 [待补充来源],从源头治理 AI 幻觉。
世锦赛 / 世界杯 / 新国辩三套主流赛制结构化编码,流程、时间、规则差异一目了然——让模型精确匹配用户场景。
一辩立论 / 二辩质询 / 三辩盘问 / 四辩结辩,每个辩位拆成"结构 + 时间 + 写作要求 + 论据搜索"的结构化 prompt。
每条论据格式化为"主张 → 推理 → 证据(来源)"三段式,输出可直接被人工校验,降低 review 成本。
--- name: debate-assistant description: 华语辩论赛全流程写作助手。覆盖立论、质询、 驳论、自由辩、结辩稿的撰写与打磨。严禁虚构数据/ 案例,所有论据必须通过网络搜索获取真实来源。 --- # 🚫 核心红线:禁止虚构 这是最高优先级规则,绝不允许违反: 1. 所有数据、案例、引用必须来自真实来源 2. 每条论据必须标注出处(作者 / 机构、年份、链接) 3. 搜不到可靠来源的,直接标记 [待补充来源] ## 🔁 核心工作流 # Step 0 辩题解析 → Step 1 立论稿 # Step 2 质询 / 盘问稿 → Step 3 驳论稿 # Step 4 自由辩稿 → Step 5 结辩稿
面向"AI 产品人需要持续追踪前沿"的真实痛点,我做了一个情报工作流的概念原型:把分散的模型更新、产品动作、行业信号,自动汇总成结构化、可对比、可行动的情报简报。
对我来说,AI 产品的关键不只是“生成了结果”,而是这个结果是否稳定、可解释、可复用。下面是我在项目中反复使用的设计逻辑。
先明确用户任务边界、输入项和输出目标,而不是直接让模型自由回答。
加入辩题、立场、时间范围、情报主题等上下文,让输出更贴近具体场景。
通过固定模块或模板,提升完整度与后续可编辑性,减少空泛生成。
从相关性、完整性、可执行性、一致性评估输出,而不是只看“像不像人写的”。
这个作品集里说的每一个能力,都可以在 hanlinliu.top/generator 直接验证。打开即用,无需登录、无需填 API Key。
下面每一项都能在线上产品里点一下就看到——这也是我对"AI PM 交付物"的要求:不是 PPT 概念,而是可点、可用、可被面试官追问。
¹ ² ¹⁴ 形式角标,点击直跳原文链接这两个项目让我更清晰地回答了一个问题——AI 产品的工作不是"把模型塞进页面",而是围绕任务流设计输入、约束输出、降低不确定性,然后不断回答"这个结果对用户到底有没有用"。
结构化任务拆解明显优于开放式生成。在辩论、情报这类知识密集场景里,用户真正想要的不是"更聪明的回答",而是"完整、可复用、可继续编辑"的半成品。
输出质量仍高度依赖输入清晰度;实时事实核验与来源追踪仍是短板;长链任务跨轮次的一致性需要更系统的 memory 与评估机制。
计划继续引入多轮 memory、证据引用层、persona 输出适配,并建立一套量化的质量评估面板,让 Badcase 不再只靠人工发现。