产品介绍

  • 作为集合顶尖大模型的一站式云服务平台,SiliconCloud 致力于为开发者提供更快、更全面、体验更丝滑的模型 API,助力开发者和企业聚焦产品创新,无须担心产品大规模推广所带来的高昂算力成本。

产品功能

  1. 提供开箱即用的大模型 API,按量收费,助力应用开发轻松实现。
    • 已上架包括 Qwen2.5-72B、DeepSeek-V2.5、Qwen2、InternLM2.5-20B-Chat、BCE、BGE、SenseVoice-Small、Llama-3.1、FLUX.1、DeepSeek-Coder-V2、SD3 Medium、GLM-4-9B-Chat、InstantID 在内的多种开源大语言模型、图片生成模型、代码生成模型、向量与重排序模型以及多模态大模型,覆盖语言、语音、图片、视频等多场景。
    • 其中,Qwen2.5(7B)、Llama3.1(8B)等多个大模型 API 免费使用,让开发者与产品经理无需担心研发阶段和大规模推广所带来的算力成本,实现“Token 自由”。
    • 25 年 1 月,SiliconCloud 平台上线基于华为云昇腾云服务的 DeepSeek-V3、DeepSeek-R1 推理服务。通过双方联合创新,在硅基流动自研推理加速引擎加持下,平台上的 DeepSeek 模型可获得持平全球高端 GPU 部署模型的效果。 
  2. 提供高效能大模型推理加速服务,提升 GenAI 应用的用户体验。
  3. 提供模型微调与部署的托管服务,用户可直接托管经过微调的大语言模型,在支撑业务迭代的同时,无需关注底层资源、服务质量,有效降低维护成本。

产品特性

  1. 高速推理
    • 自研高效算子和优化框架,推理加速引擎全球领先。
    • 极致提升吞吐能力,全面支持高吞吐场景的业务需求。
    • 显著优化计算延迟,为低延迟场景提供卓越性能保障。
  2. 高扩展性
    • 动态扩容支持弹性业务模型,无缝适配多种复杂场景。
    • 一键部署自定义模型,轻松应对规模化挑战。
    • 灵活架构设计,满足多样化任务需求,支持混合云部署。
  3. 高性价比
    • 端到端极致优化,推理和部署成本显著降低。
    • 提供灵活按需付费模式,减少资源浪费,精准控制预算。
    • 支持国产异构 GPU 部署,基于企业已有投资,节省企业投入。
  4. 高稳定性
    • 经过开发者验证,保证高可靠稳定运行。
    • 提供完善的监控和容错机制,保障服务能力。
    • 提供专业技术支持,满足企业级场景需求,确保服务高可用性。
  5. 高智能
    • 提供多种先进模型服务,包括大语言模型、音视频等多模态模型。
    • 智能扩展功能,灵活适配业务规模,满足多种服务需求。
    • 智能成本分析,为业务优化提供支持,助力成本管控与效益提升。
  6. 高安全性
    • 支持 BYOC 部署,全面保护数据隐私与业务安全。
    • 计算隔离/网络隔离/存储隔离,保障数据安全。
    • 符合行业标准与合规要求,全面满足企业级用户的安全需求。