龙空技术网

Python调用ChatGPT最新GPT-3.5-turbo模型详细方法

IT日记 317

前言:

现时我们对“python调用训练好的模型速度”大约比较关怀,你们都需要剖析一些“python调用训练好的模型速度”的相关资讯。那么小编也在网摘上网罗了一些关于“python调用训练好的模型速度””的相关内容,希望看官们能喜欢,同学们一起来了解一下吧!

一、ChatGPT官方文档介绍:

messages中的centent就是我们要提问的问题,可以看到chatgpt已经支持基于上一个问题进行提问了

ChatGPT API---0.002美元,1000个token。比之前的GPT-3.0,成本直接降低了90%。Whisper API---0.001美元,10秒语音转录基于gpt-3.5-turbo模型,在微软Azure上运行大客户(每天超过4.5亿个token)选择专用实例更实惠默认情况下,提交的数据不再用于AI训练

二、Python调用具体方法:

1.升级openai模块

2.导入openai模块

3.Python调用gpt-3.5模型代码

4.打印输出结果

5.完整代码:

import openai

openai.api_key = "《填写你的oenai key》"

conversation=[{"role": "system", "content": "You are a helpful assistant."}]

while True:

prompt = (input("请输入您的内容:"))

conversation.append({"role": "user","content": prompt})

response = openai.ChatCompletion.create(

model="gpt-3.5-turbo",

messages = conversation,

temperature=1,

max_tokens=1024,

top_p=0.9

)

conversation.append({"role": "assistant", "content": response['choices'][0]['message']['content']})

print("\n" + response['choices'][0]['message']['content'] + "\n")

三、总结:GPT-3.5跟ChatGPT网页版用的都是同一个模型

1、GPT-3.5模型比GPT3更便宜

2、GPT-3.5模型比GPT3响应速度快了接近一倍多

3、GPT-3.5可以基于上一个问题来提问

4、GPT-3.5模型的答案更完美

标签: #python调用训练好的模型速度