前言:
现时我们对“python调用训练好的模型速度”大约比较关怀,你们都需要剖析一些“python调用训练好的模型速度”的相关资讯。那么小编也在网摘上网罗了一些关于“python调用训练好的模型速度””的相关内容,希望看官们能喜欢,同学们一起来了解一下吧!一、ChatGPT官方文档介绍:
messages中的centent就是我们要提问的问题,可以看到chatgpt已经支持基于上一个问题进行提问了
ChatGPT API---0.002美元,1000个token。比之前的GPT-3.0,成本直接降低了90%。Whisper API---0.001美元,10秒语音转录基于gpt-3.5-turbo模型,在微软Azure上运行大客户(每天超过4.5亿个token)选择专用实例更实惠默认情况下,提交的数据不再用于AI训练
二、Python调用具体方法:
1.升级openai模块
2.导入openai模块
3.Python调用gpt-3.5模型代码
4.打印输出结果
5.完整代码:
import openai
openai.api_key = "《填写你的oenai key》"
conversation=[{"role": "system", "content": "You are a helpful assistant."}]
while True:
prompt = (input("请输入您的内容:"))
conversation.append({"role": "user","content": prompt})
response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages = conversation,
temperature=1,
max_tokens=1024,
top_p=0.9
)
conversation.append({"role": "assistant", "content": response['choices'][0]['message']['content']})
print("\n" + response['choices'][0]['message']['content'] + "\n")
三、总结:GPT-3.5跟ChatGPT网页版用的都是同一个模型
1、GPT-3.5模型比GPT3更便宜
2、GPT-3.5模型比GPT3响应速度快了接近一倍多
3、GPT-3.5可以基于上一个问题来提问
4、GPT-3.5模型的答案更完美
标签: #python调用训练好的模型速度