1. 关于SiliconCloud:

SiliconCloud 基于优秀的开源基础模型,提供高性价比的 GenAI 服务
不同于多数大模型云服务平台只提供自家大模型API,SiliconCloud上架了包括DeepSeek V2、Mistral、LLaMA 3、Qwen、SDXL、InstantID在内的多种开源大语言模型、图片生成模型,支持用户自由切换符合不同应用场景的模型。

更重要的是,SiliconCloud提供开箱即用的大模型推理加速服务,为你的生成式AI应用带来更高效的用户体验。

对开发者来说,通过SiliconCloud就可以一键接入顶级开源大模型的能力,拥有更好应用开发速度和体验的同时,大大降低应用开发的试错成本。


2. 注册与登录

2.1 注册

访问 SiliconCloud 官网 并点击右上角的“登录”按钮。按照提示填写您的基本信息并完成注册。


在 SiliconCloud 页面,您可以查看我们目前支持的模型,并通过点击“体验中心”来实际测试使用我们的产品。

2.2 登录

注册完成后,使用您的账号和密码在官网的登录页面进行登录。

3. 体验中心(Playground)

3.1 进入体验中心

登录后,进入“体验中心”页面,根据体验需求选择对应的使用场景进行体验。


3.2 使用体验中心

在体验中心页面,您可以直接使用平台提供的各种模型进行实时体验。选择适合的模型类型并输入相关参数或文本,点击“运行”按钮,即可看到模型生成的结果。


4. 查看模型

点击“查看模型”可查看模型列表,分为语言模型文生图模型图生图模型。点击对应的“体验中心”按钮可直接使用该模型。

灰色底色块描述的是该大语言模型的上下文长度。如 32K 表示模型的上下文长度为 32K 词元。


5. SiliconCloud API 文档

基础URL: https://api.siliconflow.cn/v1

5.1 生成API密钥

在“API 密钥”页签点击“创建新 API 密钥”,并复制,以在您的 API 场景中进行使用。


5.2 跳转到文档使用

点击右侧的“文档”页签,跳转至“文档”链接中。

5.3 在“文档链接”中使用您的 API-key ,并生成对应语言的代码:

5.4 关于使用 stream 模式的说明:

在 python 中使用 stream模式时,除了 payload 中的 stream 需要设置外,request 请求的参数也需要设置 stream=True, 才能正常按照 stream 模式进行返回。

import requests
   
url = "https://api.siliconflow.cn/v1/chat/completions"
   
payload = {
        "model": "deepseek-ai/DeepSeek-V2-Chat", # 替换成你的模型
        "messages": [
            {
                "role": "user",
                "content": "SiliconCloud公测上线,每用户送3亿token 解锁开源大模型创新能力。对于整个大模型应用领域带来哪些改变?"
            }
        ],
        "stream": True # 此处需要设置为stream模式
}

headers = {
        "accept": "application/json",
        "content-type": "application/json",
        "authorization": "Bearer sk-tokens"
    }
   
response = requests.post(url, json=payload, headers=headers, stream=True) # 此处request需要指定stream模式

# 打印流式返回信息
if response.status_code == 200: 
    for chunk in response.iter_content(chunk_size=8192): 
        if chunk:
            decoded_chunk = chunk.decode('utf-8')
            print(decoded_chunk, end='')
else:
    print('Request failed with status code:', response.status_code)