如何节约GPT的token.md

如何节约GPT的token.md

原文链接:慧言博客

如何节约GPT的token

一、模拟一下携带上下文的流程:

  1. 第1次问答:
    你:帮我写一个1000字的文案(13)
    gpt: xxxxxx (1000)
  2. 第2次问答:
    你:谢谢您(3)
    gpt:不客气(3)
  3. 第3次问答:
    你:好的 (2)

那么token怎么消耗呢?

不携带上下文

  1. 第1次问答:
    13+1000=1013

  2. 第2次问答:
    3+3=6

  3. 第3次问答:
    2+0=2

最终消耗1013+6+2=1021

携带上下文

  1. 第1次问答:
    13+1000=1013
  2. 第2次问答:
    3+3+1013=1019
  3. 第3次问答:
    2+0+1013+1019=2034

最终消耗:1013+1019+2034=4066

二、如何节约

  1. 我们的聊天室自动携带上文。可以如图关闭(手机上在右上角):

image-20230722145711991

  1. 对于一个问题,我们可以先使用3.5的提问,一步步做出方案,当你觉得这个方案差不多但又稍微欠缺。复制方案,找4提问。
  2. 因为同样的内容,中文消耗的比英文的多,所以你可以使用3.5先把你的内容翻译一下。再去拿着英文向gpt4提问。

如何节约GPT的token.md
http://example.com/token.html
作者
John Doe
发布于
2023年5月9日
许可协议