仪表盘
祝贺 MegaCity Eye 城市治理多模态垂类大模型 1.0 发布!
API Key总数
0
活跃Key数
0
总请求数
0
总Token数
0
API Key列表
ID 名称 API Key 状态 请求限制/小时 Token限制/小时 总请求 总Token 创建时间 操作
加载中...
API Key管理
ID 名称 API Key 状态 请求限制/小时 Token限制/小时 当前小时请求 当前小时Token 总请求 总Token 创建时间 操作
加载中...
使用统计
选择API Key查看详细统计
请求日志
时间 API Key 接口 Prompt Token Completion Token 总Token 延迟(ms) 状态
暂无数据
API调用文档

基本信息

API地址https://api-megacityeye.bino.ink/v1
外部模型名称mce1plus
认证方式Bearer Token (API Key)

聊天补全接口

POST /v1/chat/completions

请求参数

参数类型必填说明
modelstring模型名称,固定为 mce1plus
messagesarray消息列表,包含role和content
streamboolean是否使用流式输出,默认false
temperaturenumber采样温度,0-2之间,默认1
max_tokensinteger最大生成token数
top_pnumber核采样参数

cURL示例

curl https://api-megacityeye.bino.ink/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer sk-your-api-key" \
  -d '{
    "model": "mce1plus",
    "messages": [
      {"role": "system", "content": "你是一个有用的助手"},
      {"role": "user", "content": "你好,请介绍一下你自己"}
    ],
    "temperature": 0.7,
    "max_tokens": 1024
  }'

响应示例

{
  "id": "chatcmpl-xxx",
  "object": "chat.completion",
  "created": 1234567890,
  "model": "mce1plus",
  "choices": [{
    "index": 0,
    "message": {
      "role": "assistant",
      "content": "你好!我是MegaCity Eye城市治理多模态大模型..."
    },
    "finish_reason": "stop"
  }],
  "usage": {
    "prompt_tokens": 25,
    "completion_tokens": 50,
    "total_tokens": 75
  }
}

流式输出

设置 stream: true 可以启用流式输出,模型会逐步返回生成内容。

curl https://api-megacityeye.bino.ink/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer sk-your-api-key" \
  -d '{
    "model": "mce1plus",
    "messages": [{"role": "user", "content": "写一首诗"}],
    "stream": true
  }'

Python调用示例

使用OpenAI SDK

from openai import OpenAI

# 初始化客户端
client = OpenAI(
    api_key="sk-your-api-key",
    base_url="https://api-megacityeye.bino.ink/v1"
)

# 非流式调用
response = client.chat.completions.create(
    model="mce1plus",
    messages=[
        {"role": "system", "content": "你是一个有用的助手"},
        {"role": "user", "content": "你好"}
    ],
    temperature=0.7
)
print(response.choices[0].message.content)

# 流式调用
stream = client.chat.completions.create(
    model="mce1plus",
    messages=[{"role": "user", "content": "写一个故事"}],
    stream=True
)
for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="")

多模态调用(图片理解)

本模型支持多模态输入,可以处理图片和文本混合内容。

from openai import OpenAI

client = OpenAI(
    api_key="sk-your-api-key",
    base_url="https://api-megacityeye.bino.ink/v1"
)

response = client.chat.completions.create(
    model="mce1plus",
    messages=[{
        "role": "user",
        "content": [
            {"type": "text", "text": "请描述这张图片的内容"},
            {
                "type": "image_url",
                "image_url": {
                    "url": "data:image/jpeg;base64,/9j/4AAQSkZJRg..."  # base64编码的图片
                }
            }
        ]
    }]
)
print(response.choices[0].message.content)

错误码说明

状态码说明
401API Key无效或未提供
429请求频率超限
500服务器内部错误
502模型服务不可用

响应头信息

每个响应都包含速率限制信息:

响应头说明
X-RateLimit-Remaining-Requests剩余请求次数
X-RateLimit-Remaining-Tokens剩余Token数
系统设置