API Key总数
0
活跃Key数
0
总请求数
0
总Token数
0
API Key列表
| ID | 名称 | API Key | 状态 | 请求限制/小时 | Token限制/小时 | 总请求 | 总Token | 创建时间 | 操作 |
|---|---|---|---|---|---|---|---|---|---|
| 加载中... | |||||||||
API Key管理
| ID | 名称 | API Key | 状态 | 请求限制/小时 | Token限制/小时 | 当前小时请求 | 当前小时Token | 总请求 | 总Token | 创建时间 | 操作 |
|---|---|---|---|---|---|---|---|---|---|---|---|
| 加载中... | |||||||||||
使用统计
选择API Key查看详细统计
请求日志
| 时间 | API Key | 接口 | Prompt Token | Completion Token | 总Token | 延迟(ms) | 状态 |
|---|---|---|---|---|---|---|---|
| 暂无数据 | |||||||
API调用文档
基本信息
| API地址 | https://api-megacityeye.bino.ink/v1 |
| 外部模型名称 | mce1plus |
| 认证方式 | Bearer Token (API Key) |
聊天补全接口
POST
/v1/chat/completions
请求参数
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
model | string | 是 | 模型名称,固定为 mce1plus |
messages | array | 是 | 消息列表,包含role和content |
stream | boolean | 否 | 是否使用流式输出,默认false |
temperature | number | 否 | 采样温度,0-2之间,默认1 |
max_tokens | integer | 否 | 最大生成token数 |
top_p | number | 否 | 核采样参数 |
cURL示例
curl https://api-megacityeye.bino.ink/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-your-api-key" \
-d '{
"model": "mce1plus",
"messages": [
{"role": "system", "content": "你是一个有用的助手"},
{"role": "user", "content": "你好,请介绍一下你自己"}
],
"temperature": 0.7,
"max_tokens": 1024
}'
响应示例
{
"id": "chatcmpl-xxx",
"object": "chat.completion",
"created": 1234567890,
"model": "mce1plus",
"choices": [{
"index": 0,
"message": {
"role": "assistant",
"content": "你好!我是MegaCity Eye城市治理多模态大模型..."
},
"finish_reason": "stop"
}],
"usage": {
"prompt_tokens": 25,
"completion_tokens": 50,
"total_tokens": 75
}
}
流式输出
设置 stream: true 可以启用流式输出,模型会逐步返回生成内容。
curl https://api-megacityeye.bino.ink/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-your-api-key" \
-d '{
"model": "mce1plus",
"messages": [{"role": "user", "content": "写一首诗"}],
"stream": true
}'
Python调用示例
使用OpenAI SDK
from openai import OpenAI
# 初始化客户端
client = OpenAI(
api_key="sk-your-api-key",
base_url="https://api-megacityeye.bino.ink/v1"
)
# 非流式调用
response = client.chat.completions.create(
model="mce1plus",
messages=[
{"role": "system", "content": "你是一个有用的助手"},
{"role": "user", "content": "你好"}
],
temperature=0.7
)
print(response.choices[0].message.content)
# 流式调用
stream = client.chat.completions.create(
model="mce1plus",
messages=[{"role": "user", "content": "写一个故事"}],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="")
多模态调用(图片理解)
本模型支持多模态输入,可以处理图片和文本混合内容。
from openai import OpenAI
client = OpenAI(
api_key="sk-your-api-key",
base_url="https://api-megacityeye.bino.ink/v1"
)
response = client.chat.completions.create(
model="mce1plus",
messages=[{
"role": "user",
"content": [
{"type": "text", "text": "请描述这张图片的内容"},
{
"type": "image_url",
"image_url": {
"url": "data:image/jpeg;base64,/9j/4AAQSkZJRg..." # base64编码的图片
}
}
]
}]
)
print(response.choices[0].message.content)
错误码说明
| 状态码 | 说明 |
|---|---|
401 | API Key无效或未提供 |
429 | 请求频率超限 |
500 | 服务器内部错误 |
502 | 模型服务不可用 |
响应头信息
每个响应都包含速率限制信息:
| 响应头 | 说明 |
|---|---|
X-RateLimit-Remaining-Requests | 剩余请求次数 |
X-RateLimit-Remaining-Tokens | 剩余Token数 |
系统设置