让创新无限可能,助您全面解决问题。
开发团队一人说一句
时光一去永不回 ,不想努力学Python
本人作为一个python小白,学习过程中觉得本地安装python或者在模拟器运行太麻烦,就有了想偷懒的想法,然后花了一个月时间,就有了这个网站,不说了,我继续学python去了
![]()
ker Project Manager
勇敢去干就行了
就上面那句,勇敢去干就行了,干
![]()
老杨 System Engineers
随便吧
凌晨专业赶due,此刻在打麻将
![]()
AjC Coders
不要总是扯没用的,不要废话了
很遗憾没有继续合作,两个倔脾气的应该互相迁就一下,还记得第一次见面聊的特别欢
![]()
LJX Coders
创业这条路很不容易,但有些事情总要去做
感谢一路以来的支持和鼓励
![]()
老徐 Project Superviso
AGI Countdown
模型名称
|
资费(输入)
|
资费(输出)
|
字数上限 (含上下文)
|
gpt-3.5-turbo
|
$0.5 / M
|
$1.5 / M
|
16K
|
gpt-3.5-turbo-0125
|
$0.5 / M
|
$1.5 / M
|
16K
|
gpt-3.5-turbo-1106
|
$0.5 / M
|
$1.5 / M
|
16K
|
gpt-4
|
$30 / M
|
$60 / M
|
8K
|
gpt-4-0613
|
$30 / M
|
$60 / M
|
8K
|
gpt-4-1106-preview
|
$30 / M
|
$60 / M
|
输入128k,输出4K
|
gpt-4-0125-preview
|
$30 / M
|
$60 / M
|
输入128k,输出4K
|
gpt-4-vision-preview
|
$30 / M
|
$60 / M
|
输入128k,输出4K
|
gpt-4-1106-vision-preview
|
$30 / M
|
$60 / M
|
输入128k,输出4K
|
gpt-4-32k
|
$60 / M
|
$120 / M
|
32K
|
gpt-4-32k-0613
|
$60 / M
|
$120 / M
|
32K
|
gpt-4-turbo
|
$10 / M
|
$30 / M
|
128K
|
gpt-4-turbo-2024-04-09
|
$10 / M
|
$30 / M
|
128K
|
gpt-4-turbo-preview
|
$10 / M
|
$30 / M
|
128K
|
gpt-4o
|
$5 / M
|
$15 / M
|
128K
|
gpt-4o-2024-05-13
|
$5 / M
|
$15 / M
|
128K
|
gpt-4o-mini
|
$0.15 / M
|
$0.6 / M
|
128K
|
注:以上为官方定价,一般国内中转接口价格便宜一些
百度文心一言
百度解释:1 Token 约等于 1个汉字 或者 1.3 个单词
模型名称
|
资费(输入)
|
资费(输出)
|
ERNIE-3.5-8K
|
¥0.0008 / K
|
¥0.002 / K
|
ERNIE-3.5-8K-0701
|
¥0.0008 / K
|
¥0.002 / K
|
ERNIE-3.5-8K-Preview
|
¥0.0008 / K
|
¥0.002 / K
|
ERNIE-3.5-128K
|
¥0.0008 / K
|
¥0.002 / K
|
ERNIE-Speed-128K
|
免费
|
免费
|
ERNIE-Speed-8K
|
免费
|
免费
|
ERNIE-Lite-8K
|
免费
|
免费
|
ERNIE-Lite-8K-0922
|
免费
|
免费
|
ERNIE-Tiny-8K
|
免费
|
免费
|
Llama-2-13b-chat
|
¥0.006 / K
|
¥0.006 / K
|
Llama-2-70b-chat
|
¥0.035 / K
|
¥0.035 / K
|
ChatGLM2-6B-32K
|
¥0.004 / K
|
¥0.004 / K
|
ERNIE-4.0-8K
|
¥0.03 / K
|
¥0.09 / K
|
ERNIE-4.0-8K-0329
|
¥0.03 / K
|
¥0.09 / K
|
ERNIE-4.0-8K-0613
|
¥0.03 / K
|
¥0.09 / K
|
ERNIE-4.0-8K-Preview
|
¥0.03 / K
|
¥0.09 / K
|
ERNIE-4.0-8K-Preview-0518
|
¥0.03 / K
|
¥0.09 / K
|
ERNIE-4.0-8K-Latest
|
¥0.03 / K
|
¥0.09 / K
|
ERNIE-4.0-turbo-8K
|
¥0.02 / K
|
¥0.06 / K
|
ERNIE-4.0-turbo-8K-Preview
|
¥0.02 / K
|
¥0.06 / K
|
讯飞星火
讯飞解释:1 Token 约等于1.5个中文汉字 或者 0.8个英文单词
服务引擎
|
单价
|
Spark Lite(原星火V1.5)
|
免费
|
星火大模型V2.0
|
¥0.21 – ¥0.30 / 万Tokens
|
Spark Pro(原星火V3.0)
|
¥0.21 – ¥0.30 / 万Tokens
|
Spark3.5 Max
|
¥0.21 – ¥0.30 / 万Tokens
|
注:不同套餐包折合单价不同
腾讯混元
腾讯解释:1 Token 约等于1.8个中文汉字或3个英文字母
模型名称
|
单价
|
hunyuan-pro
|
输入:¥0.03 / K,输出:¥0.1 / K
|
hunyuan-standard-32K
|
输入:¥0.0045/ K,输出:¥0.005 / K
|
hunyuan-standard-256k
|
输入:¥0.015 / K,输出:¥0.06 / K
|
hunyuan-lite
|
免费
|
hunyuan-embedding
|
¥0.0007 / K
|
通义千问
阿里通义官方说明:Token是模型用来表示自然语言文本的基本单位,可以直观的理解为“字”或“词”。对于中文文本来说,1个token通常对应1个汉字;对于英文文本来说,1个token通常对应3至4个字母。
通义千问模型服务根据模型输入和输出的token数量进行计量计费,其中多轮对话中的history作为输入也会进行计量计费。
模型名称
|
单价(输入)
|
单价(输出)
|
qwen-long
|
0.0005元/1,000 tokens
|
0.002元/1,000 tokens
|
qwen-turbo
|
0.002元/1,000 tokens
|
0.006元/1,000 tokens
|
qwen-plus
|
0.004元/1,000 tokens
|
0.012元/1,000 tokens
|
qwen-max
|
0.04元/1,000 tokens
|
0.12元/1,000 tokens
|
qwen-max-0428
|
0.04元/1,000 tokens
|
0.12元/1,000 tokens
|
qwen-max-0403
|
0.04元/1,000 tokens
|
0.12元/1,000 tokens
|
qwen-max-0107
|
0.04元/1,000 tokens
|
0.12元/1,000 tokens
|
qwen-max-1201
|
0.12元/1,000 tokens
|
0.12元/1,000 tokens
|
qwen-max-longcontext
|
0.04元/1,000 tokens
|
0.12元/1,000 tokens
|
kimi
kimi官方解释:1 个 Token 大约相当于 1.5-2 个汉字, 1M = 100万 Tokens
模型名称
|
计费单位
|
价格
|
moonshot-v1-8k
|
1M tokens
|
¥12.00
|
moonshot-v1-32k
|
1M tokens
|
¥24.00
|
moonshot-v1-128k
|
1M tokens
|
¥60.00
|
百川AI
1个token约等于1.5个中文汉字
模型名称
|
单价
|
Baichuan2-Turbo
|
0.008元/千tokens
|
Baichuan2-Turbo-192k
|
0.016元/千tokens
|
Baichuan3-Turbo
|
0.012元/千tokens
|
Baichuan3-Turbo-128k
|
0.024元/千tokens
|
Baichuan4
|
0.1元/千tokens
|
天工AI
模型名称
|
说明
|
价格
|
SkyChat-MegaVerse
|
适用于需要高知识量、强推理能力和创造力的场景,例如广告文案、小说写作、知识类写作和代码生成等。
|
0.005元 / 千tokens
|
智谱AI
1token 约等于1.8个中文汉字
模型
|
说明
|
上下文长度
|
单价
|
GLM-4-Air
|
提供了更强大的问答和文本生成能力。适合于复杂的对话交互和深度内容创作设计的场景。
|
128K
|
0.0005元 / 千tokens
|
GLM-4-0520
|
适用于对知识量、推理能力、创造力要求较高的场景,比如广告文案、小说写作、知识类写作、代码生成等。
|
128K
|
0.05元 / 千tokens
|
GLM-4-Flash
|
智谱AI首个免费API,零成本调用大模型。
|
128K
|
免费
|
MINIMAX
1000个token约对应750个字符文本(包括标点等字符)
模型名称
|
单价
|
abab6
|
0.2元/千tokens
|
abab5.5
|
0.015元/千tokens
|
abab5.5s
|
0.005元/千tokens
|
Claude2
模型名称
|
单价(输入)
|
单价(输出)
|
claude-1
|
$0.0008/千tokens
|
$0.0024/千tokens
|
claude-2
|
$0.008/千tokens
|
$0.024/千tokens
|
Claude 3 Opus
|
$0.015/千tokens
|
$0.075/千tokens
|
Claude 3 Sonnet
|
$0.003/千tokens
|
$0.015/千tokens
|
Claude 3 Haiku
|
$0.00025/千tokens
|
$0.00125/千tokens
|
Gemini
Gemini官方解释:一个token相当于大约 4 个字符。100 个词元约为 60-80 个英语单词。
模型名称
|
价格
|
gemini-pro
|
免费中
|
gemini-1.5-pro
|
免费中
|
DeepSeek
官方解释:1 个英文字符 ≈ 0.3 个 token,1 个中文字符 ≈ 0.6 个 token。
模型名称
|
描述
|
输入价格
|
输出价格
|
deepseek-chat
|
擅长通用对话任务
上下文长度为 32K |
1 元 / 百万 tokens
|
2 元 / 百万 tokens
|
deepseek-coder
|
擅长处理编程任务
上下文长度为 16K |
1 元 / 百万 tokens
|
2 元 / 百万 tokens
|
豆包AI
官方解释:通常1个中文词语、英文单词、数字、符号计为 1 个token
模型名称
|
输入价格
|
输出价格
|
Doubao-lite-4k
|
0.0003元/千Token
|
0.0006元/千Token
|
Doubao-lite-32k
|
0.0003元/千Token
|
0.0006元/千Token
|
Doubao-lite-128k
|
0.0008元/千Token
|
0.0010元/千Token
|
Doubao-pro-4k
|
0.0008元/千Token
|
0.0020元/千Token
|
Doubao-pro-32k
|
0.0008元/千Token
|
0.0020元/千Token
|
Doubao-pro-128k
|
0.0050元/千Token
|
0.0090元/千Token
|
灵犀AI
文字对话计费规则与openai一致
在使用本网站提供的 AI 服务前,请您务必仔细阅读并理解本《免责声明》(以下简称“本声明”)。请您知悉,如果您选择继续访问本网站、或使用本网站提供的本服务以及通过各类方式利用本网站的行为(以下统称“本服务”),则视为接受并同意本声明全部内容。
可玩智能目前有三款AI产品:
网页使用,内嵌odoo(开源erp),永久免费,适合企业用户和白嫖党,有少了广告,目前IP被墙了!
手机电脑都可以使用,带mj绘图,支持语音输入,GPT联网功能,有少量免费额度体验,后期需要付费使用,支持支付宝和微信付费
网页,公众号(可玩智能),微信小程序(可玩智能AI)使用,自带行业模型,带Mj绘图,付费使用,只支持微信付费,苹果手机用户需要添加客服微信ker1666购买卡密。
产品四
可玩AI艺术二维码(微信小程序搜索),用AIGC赋能二维码,让二维码五彩斑斓,创意无限!
ChatGPT 由 OpenAI 最先进的语言模型 gpt-3.5-turbo
驱动。
使用OpenAI API,您可以构建自己的应用程序,利用gpt-3.5-turbo
来完成诸如以下任务::
本指南介绍了如何调用基于聊天的语言模型的API,并分享了获取良好结果的技巧。您还可以在OpenAI Playground中尝试新的聊天格式。
聊天模型将一系列消息作为输入,并返回一个由模型生成的消息作为输出。
尽管聊天格式旨在使多轮对话变得容易,但它同样适用于没有任何对话的单轮任务(例如先前由遵循 text-davinci-003
模型的指令提供的服务)。
一个API调用的示例如下:
# Note: 您需要使用OpenAI Python v0.27.0才能使下面的代码正常工作
import openai
openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Who won the world series in 2020?"},
{"role": "assistant", "content": "The Los Angeles Dodgers won the World Series in 2020."},
{"role": "user", "content": "Where was it played?"}
]
)
主要输入是消息参数。消息必须是一个消息对象数组,其中每个对象都有一个角色(“system”、“user”或“assistant”)和内容(消息的内容)。对话可以只有1条消息,也可以填满许多页面。
通常,对话以系统消息为首,然后是用户和助手交替发送的消息。
包括对话历史记录有助于用户指令参考之前的消息。在上面的例子中,用户最后一个问题“它是在哪里播放的?”只有在关于2020年世界大赛的先前消息背景下才有意义。因为模型没有过去请求的记忆,所有相关信息必须通过对话提供。如果一次对话无法适应模型的标记限制,则需要以某种方式缩短它。
一个API响应的示例如下:
{
'id': 'chatcmpl-6p9XYPYSTTRi0xEviKjjilqrWU2Ve',
'object': 'chat.completion',
'created': 1677649420,
'model': 'gpt-3.5-turbo',
'usage': {'prompt_tokens': 56, 'completion_tokens': 31, 'total_tokens': 87},
'choices': [
{
'message': {
'role': 'assistant',
'content': 'The 2020 World Series was played in Arlington, Texas at the Globe Life Field, which was the new home stadium for the Texas Rangers.'},
'finish_reason': 'stop',
'index': 0
}
]
}
在Python中,可以使用以下代码提取助手的回复: response[‘choices’][0][‘message’][‘content’]
。
语言模型以称为 tokens 的块读取文本。在英语中,一个标记可以短至一个字符或长至一个单词(例如 a
或 apple
),而在某些语言中,标记甚至可以比一个字符更短或比一个单词更长。
例如,字符串“ChatGPT is great!”
被编码为六个标记:[“Chat”, “G”, “PT”, “ is”, “ great”, “!”]
。
API调用中的 tokens 总数会影响:您每个 tokens 支付的API调用成本,写入更多 tokens 需要更长时间,因此您的API调用需要花费更长时间;是否能正常工作,因为总 tokens 必须低于模型的最大限制。(gpt-3.5-turbo-0301
的限制是 4096 tokens)
输入和输出 tokens 都计入这些数量。例如,如果您的API调用在消息输入中使用了10个 tokens,并且在消息输出中收到了20个 tokens,则您将被收取30个 tokens 的费用。
要查看 API 调用使用了多少 tokens,请检查 API 响应中的 usage
字段。 (例如 response[‘usage’][‘total_tokens’]
).
使用OpenAI的 tiktoken Python库,可以查看文本字符串中有多少令牌,而无需进行API调用。在OpenAI Cookbook的指南中可以找到示例代码,介绍如何使用tiktoken计算令牌数量。
每个传递到API的消息都会消耗内容、角色和其他字段中的tokens 数量,以及一些用于幕后格式化的额外 tokens。这在未来可能会略有变化。
如果一个对话中的 tokens 数量超过了模型的最大限制。 (例如,超过4096个 tokens 用于 gpt-3.5-turbo
), 你需要缩短、省略或压缩文本,直到它适合。请注意,如果从消息输入中删除了一条消息,则模型将失去所有相关知识。
请注意,非常长的对话更有可能收到不完整的回复。 例如,一个长度为4090个标记的gpt-3.5-turbo
对话,在仅6个标记后就会被截断回复。
指导模型的最佳实践可能会随着模型版本的变化而改变。以下建议适用于 gpt-3.5-turbo-0301 ,未来的模型可能不适用。
许多对话都以系统消息开始,温柔地指导助手。例如,这是用于ChatGPT的其中一条系统消息:
你是由OpenAI训练的大型语言模型ChatGPT。尽可能简洁地回答问题。知识截止日期:{knowledge_cutoff} 当前日期:{current_date}。
通常情况下,gpt-3.5-turbo-0301
不会特别关注系统消息,因此重要的指令最好放在用户消息中。
如果模型没有产生您想要的输出,请随意迭代和尝试潜在的改进。 您可以尝试以下方法:
为了获得更快的工程思路,请阅读OpenAI Cookbook指南,了解提高可靠性的技术。
除了系统消息外, temperature 和最大 tokens 是开发者影响聊天模型输出的众多选项中的两个。对于 temperature,较高的值如0.8会使输出更加随机,而较低的值如0.2会使其更加集中和确定。在最大 tokens 的情况下,如果你想把响应限制在一定的长度内,最大 tokens 可以被设置为一个任意的数字。这可能会引起一些问题,例如,如果你将最大 tokens 值设置为5,因为输出会被切断,结果对用户来说没有意义。
由于 gpt-3.5-turbo
的性能与 text-davinci-003
相似,但每个 tokens 的价格只有其10%,因此我们建议在大多数用例中使用 gpt-3.5-turbo
。
对于许多开发人员来说,过渡就是简单地重写和重新测试提示。
例如,如果您使用以下完成提示将英语翻译成法语:
Translate the following English text to French: “{text}”
一个等效的聊天对话可能如下所示:
[
{“role”: “system”, “content”: “You are a helpful assistant that translates English to French.”},
{“role”: “user”, “content”: ‘Translate the following English text to French: “{text}”’}
]
甚至只是用户留言:
[
{“role”: “user”, “content”: ‘Translate the following English text to French: “{text}”’}
]
继续..
不可以。从2023年3月1日起,您只能微调基础GPT-3模型。请参阅微调指南以了解如何使用微调模型的更多细节。
截至2023年3月1日,我们保留您的API数据30天,但不再使用通过API发送的数据来改进我们的模型。请在我们的数据使用政策中了解更多信息。
如果您想为聊天API的输出添加一个调节层,可以按照我们的调节指南来防止显示违反OpenAI使用政策的内容。
Write Python Team