ChatGPTAPI有什么用?简单地说,它允许任何企业或个人在他们自己的应用程序、网站、产品和服务中使用ChatGPT功能,并且是最新的训练模型,$0.002/1Ktokens的价格看起来也似乎非常诱人!
ChatGPTAPI的开放,类似乔布斯当时建立了Apple应用商店,让全世界的企业和个人开发者都可以在应用程序中预留人工智能的接口,与类ChatGPT平台联结起来。
需要注意的是,出于安全原因,这个API只展示一次,请务必在关闭对话框之前,将其复制到你其他的地方保管。
ChatGPTAPI的使用方法也十分简单,首先可以用简单的curl命令测试下。把$OPENAI_API_KEY替换成你自己的APIKEY就好。
另外,官方也提供了基于各种编程语言的简单实现代码。比如Python,你只需importopenai包,带上刚申请的API,模型选择这次开放的最新模型——gpt-3.5-turbo就可以。
不过,作为开发人员,我们也可以灵活地选择特定构建版本,以享受最新的特性。例如今天发布的gpt-3.5-turbo-0301,这种临时版本至少会支持3个月。
这么说吧,GPT-3.5是OpenAI公司目前为止通API方式所提供的最强大的文本生成模型,其中,代号“turbo”指的是GPT-3.5的优化版本、响应速度更快。OpenAI也将GPT其称之为是“许多非聊天用例的最佳模型”。按照计划,GPT-4今年会发布。gpt-3.5-turb模型号称成本只有达芬奇text-davinci-003的十分之一,而且会一直保持更新,比如gpt-3.5-turbo-0301这样,
个人感觉这个token用得还是挺快的!比官方的ChatGPT要快,响应也不需要一个字一个字蹦出来了。会不会突然有点不适应了?哈哈!
官方这次的收费标准是$0.002/1Ktokens,大概750词。虽然1k个token看起来很多。但其实,发送一段供API响应的文本可能就会花费不少token。
据我观察,基本问1个问题就要耗费100~200个token,算起来其实不少的,尤其在连续会话中,为了保持对话的连续性,必须每次都要回传历史消息,并且输入都要算token数算钱的,满打满算,按量付费其实也不便宜。
按照一般的经验来看,在英语中“一个token通常对应大约4个字符”,而1个汉字大致是2~2.5个token。
举一个官方的说明例子可能更直观一些:根据OpenAI官方文档,“ChatGPTisgreat!”这组单词就需要六个token——它的API将其分解为“Chat”、“G”、“PT”、“is”、“great”和“!”。
我们知道,官方的ChatGPT以及ChatGPTPlus最强的地方就在于它拥有上下文联系,也就是能跟你连续会话的能力,正因为如此,让你拥有了跟一个现实伴侣、导师或者朋友交谈的感觉。另外,这次的API自带连续对话能力,你只需在接口入参的地方将历史对话内容一并赋值给Message参数,回传给模型就可以。不过这势必会增加token的费用,这点有点坑啊。官方似乎也意识到了这点,所以,单次传的token上限为4096,超过4096会返回报错。
ChatGPTAPI使用有地区限制吗?有群友反馈说今天开始国内访问API已经不稳定了,目前我这边还是可以的。但后面不好说,可能得走国际IP也说不定。
比如,你可以试试问一下那些套壳AI网站“今天是哪一天?”,看看它怎么回答。
除了ChatGPTAPI,这次,OpenAI还宣布了WhisperAPI。Whisper是OpenAI在去年9月份开源的语音转文字模型,开元之后就受到了全球开发者社区的盛赞。WhisperAPI基于开源的whisper-large-v2模型,方便开发者们按需使用,价格为每分钟0.006美元。
根据官方文档的介绍,WhisperAPI可被用来转录(以源语言转录)或翻译(转录为英语),并转为各种格式(M4A、MP3、MP4、MPEG、MPGA、WAV、WEBM)
最后一个问题,ChatGPTAPI发布之后,有些人会想,是不是ChatGPTPlus可以不用续费了。其实并不然。正如上面所介绍,ChatGPTAPI使用偏向于程序员以及应用开发者,对普通用户有较大的使用门槛。还有,上面也说了,Token看似便宜,实际上需要回传历史消息才能延续上下文连续回话能力,何况当前还有4096个token的限制,真正使用下来,一个月也比Plus的$20定价也便宜不了多少。
API速度上会比Plus快,但是,二者关于回答的质量上,目前肯定是官方Plus占优。毕竟除了模型,模型的参数才是决定性的,一句话,你永远可以相信官方。