在沉浸式翻译中使用SiliconCloud API

在沉浸式翻译中,使用 SiliconCloud的API能力,达到快速跨语言翻译的目标

作为全网口碑炸裂的双语对照网页翻译插件,沉浸式翻译 结合大语言模型对于跨语言的理解能力,能够实时翻译外语内容,可应用于网页阅读,PDF 翻译,EPUB 电子书翻译,视频双语字幕翻译等场景,并支持各种浏览器插件和应用使用。自2023年上线以来,这款备受赞誉的 AI 双语对照网页翻译扩展,已帮助超过 100 万用户跨越语言障碍,自由汲取全球智慧。

硅基流动的 SiliconCloud近期第一时间提供了 GLM4、Qwen2、DeepSeek V2、Yi 等系列大模型,且模型速度非常快。如何将这二者结合起来,改善在沉浸式翻译场景的能力呢?

先看疗效

拿熟悉的中英互译进行说明。用杜甫经典的《登高》进行“中译英”测试,相比谷歌翻译和微软翻译,硅基流动提供的QWen 72B 模型对中文的理解更地道,译文也更贴近原文风格。


而同样基于同一段文本的“英译中”翻译,硅基流动提供的 QWen 72B 模型也有更好的效果,译文更通顺流畅。

想要尝试其他场景,大家可以直接使用翻译文档多模型对比 进行测试,其中 SiliconFlow 相关模型的配置详见“配置过程”部分。

配置过程

  1. 点击“安装到浏览器”,获取并添加该扩展,如果已安装“沉浸式翻译”,请跳过本步骤。


  1. 点击沉浸式翻译的扩展图标,找到对应“设置”选项,并新增“兼容 OpenAI 的自定义兼容接口”

  1. 在其中添加 SiliconFlow 模型的相关信息


  • 模型名称:模型在siliconcloud中的名称,此处为“alibaba/Qwen2-72B-Instruct”,可使用SiliconCloud文档中心获得当前所有支持的模型名称。

  • 每秒最大请求数:当前平台提供的吞吐量:RPM 为100,RPS 为 3,此处建议直接填写为 2.9。详细参考

  1. 调整其他参数 :“指定 AI 专家提供翻译策略”、“每次请求最大文本长度”和“每次请求最大段落数”(按需,建议结合实际使用场景测试调整)
  1. 点击测试,验证测试成功

  1. 至此已经完成相关模型配置项,就可以在沉浸式翻译插件中使用SiliconCloud 提供的大语言模型来提供翻译了。