笔者从2023年OpenAI发布GPT3.5开始接触大模型,所负责的游戏领域Text-to-SQL产品在国内众多竞品中脱引而出,成功实现商业化落地。
本指南主要分享这2年Prompt设计和调试迭代实践经验(目前市面上还没有看到类似理解的文章),希望对机核社区相关从业伙伴有所帮助。
直观理解,提示(Prompt)是输入给大模型(LLM)的文本信息,是对大模型的指令,明确地告诉模型想要解决的问题或完成的任务,也是模型理解用户需求并生成预期结果的基础。
业内大家设计Prompt的结构基本变化不大,核心主要包括几部分:角色、目标、步骤、返回样式、案例(推理模型不建议使用案例)。
有一定Prompt编写经验的同学可能会遇到以下疑问:
因此,我们我们一般按照从左下到右上的方向迭代prompt。
第一个实验的灵感起源于:如果我们自己去解决一个问题,可能有一些更高维的方法论或思考框架。尝试在“步骤”前面增加一个“步骤框架”,发现并没有起到正向效果。有可能是因为“步骤框架”和“步骤”在模型视角看方向一致。
第二个实验灵感来源于ToT(Tree of Thought),多个专家一起做一件事情并投票选择最优解决。100以内有一定效果,数量再多并不能产生效果了。为什么会有这个结论呢?可能和分布有关系。
第三个实验来源于SoT(Story of Thought),给定一个明确的场景。为什么这个会有正向效果,可能“场景”固定了一个高维空间,能减少向量非一致性干扰。
大模型刚出来,大家觉得Prompt工程是一个新的领域,OpenAI等大模型公司会发布自己Prompt工程指南,吴恩达老师也做了相关课程。
目前我的认知是:Prompt工程跟传统算法工程师的调参工作反而更接近,都是通过改变参数让模型更接近预期结果,不同的是Prompt是通过自然语言进行调参。可能不是那么重要。
业务理解 -> 平台开发 -> Prompt工程 -> 模型微调和强化 -> 数据集构建
评论区
共 条评论热门最新