分享
经验:调教 200 多个 ChatGPT 模型后的经验分享
输入“/”快速插入
经验:调教 200 多个 ChatGPT 模型后的经验分享
大家好!我是云飞,盈腾科技创始人,一个有十五六人小团队的创业者。从去年 12 月布局 ChatGPT 的应用到现在已经将近快 4 个多月了。
期间利用基于 ChatGPT 的 API 部署的本地机器人大大提高了我司图文业务的人效,原先需要 11 个人负责的图文业务降到现在的 4 个人负责。
可以链接我:1764186151 ,记得加备注“帖子”
我认为在 ChatGPT 使用门槛不断降低的情况下,决定能否真正将其转化为生产力的因素就是“调教精度”。
之前在星球分享过 ChatGPT 调教的三板斧,今天逐一来详细分析和分享一下,它们分别是:
1.
它能识别自然语言逻辑的描述,但它更擅长识别计算机语言逻辑的描述;
2.
它能识别自然语言,但它更擅长专业语言;
3.
它能识别中文,但它更擅长英文;
最终,结果质量的好坏、精准度很大程度上取决于这几个“
更
”。
本文整体结构分为两部分,第一部分是三板斧的详细解释和使用方法,第二部分是 6个可以直接使用的调教方法。
📍
-更新记录
3.27新增ChaGPT反向生成优化prompt
3.22新增自定义回答的案例1个
3.20新增精准调教模型常用词13个
❤️
温馨提示
:
1.针对文中涉及的代码部分,不懂技术的童靴可以略过,不影响你的后文阅读。调教方法部分各模块是相互独立的。
2.本文会长期更新,以此作为针对 ChatGPT 调教方法这个主题和圈友们长期对话的窗口。
好,接下来逐一解释一下“三板斧”
一、ChatGPT 调教"三板斧”
①它能识别自然语言逻辑的描述,但它更擅长识别计算机语言逻辑的描述;
我们平时说话时使用的语言就是自然语言。通常,我们使用自然语言时有两重模糊性,
语义模糊性+逻辑模糊性
。在自然语言中,一个词或一个短语可以有多种含义或解释,而且这些含义或解释可能是模糊的,即存在歧义。这是由于自然语言的复杂性和多样性所导致的。
一个词在不同的上下文中可以有不同的意义。
例如,单词“冷”可以表示温度低,也可以表示情感冷淡,还可以表示冷静等。同样,一个短语在不同的语境中也可能有不同的含义。例如,短语“打开窗户”可以表示打开窗户以获得新鲜空气,也可以表示打开窗户以进入房间。
除了多义性,自然语言还存在一些其他的模糊性。
例如,一些词或短语的含义可能取决于讲话人或听话人的文化、背景或经验。咱们中国的文化环境和西方有很多差别,这对生成结果也会有影响 。此外,口语和书面语之间也存在差异,同一个词在口语和书面语中可能有不同的含义。
这种模糊性使得自然语言处理任务变得困难,例如文本处理、机器翻译和情感分析等。因此,在自然语言处理中,需要使用各种技术来尝试
减少这种模糊性
。