在沉浸式翻译中使用SiliconCloud API
在沉浸式翻译中,使用 SiliconCloud的API能力,达到快速跨语言翻译的目标
作为全网口碑炸裂的双语对照网页翻译插件,沉浸式翻译 结合大语言模型对于跨语言的理解能力,能够实时翻译外语内容,可应用于网页阅读,PDF 翻译,EPUB 电子书翻译,视频双语字幕翻译等场景,并支持各种浏览器插件和应用使用。自2023年上线以来,这款备受赞誉的 AI 双语对照网页翻译扩展,已帮助超过 100 万用户跨越语言障碍,自由汲取全球智慧。
硅基流动的 SiliconCloud近期第一时间提供了 GLM4、Qwen2、DeepSeek V2、Yi 等系列大模型,且模型速度非常快。如何将这二者结合起来,改善在沉浸式翻译场景的能力呢?
先看疗效
拿熟悉的中英互译进行说明。用杜甫经典的《登高》进行“中译英”测试,相比谷歌翻译和微软翻译,硅基流动提供的QWen 72B 模型对中文的理解更地道,译文也更贴近原文风格。
而同样基于同一段文本的“英译中”翻译,硅基流动提供的 QWen 72B 模型也有更好的效果,译文更通顺流畅。
想要尝试其他场景,大家可以直接使用翻译文档多模型对比 进行测试,其中 SiliconFlow 相关模型的配置详见“配置过程”部分。
配置过程
- 点击“安装到浏览器”,获取并添加该扩展,如果已安装“沉浸式翻译”,请跳过本步骤。
- 点击沉浸式翻译的扩展图标,找到对应“设置”选项,并新增“兼容 OpenAI 的自定义兼容接口”
- 在其中添加 SiliconFlow 模型的相关信息
- 自定义翻译服务名称:按照自己的实际情况填写即可,此处我们填写为"siliconflow-Qwen72B"
- 自定义API 接口地址:此处为 https://api.siliconflow.cn/v1/chat/completions (固定值), 了解更多可以参考https://docs.siliconflow.cn/reference/chat-completions-1
- APIKEY:从API 密钥 中点击复制过来。
- 模型名称:模型在siliconcloud中的名称,此处为“alibaba/Qwen2-72B-Instruct”,可使用SiliconCloud文档中心获得当前所有支持的模型名称。
- 每秒最大请求数:当前平台提供的吞吐量:RPM 为100,RPS 为 3,此处建议直接填写为 2.9。详细参考
- 调整其他参数 :“指定 AI 专家提供翻译策略”、“每次请求最大文本长度”和“每次请求最大段落数”(按需,建议结合实际使用场景测试调整)
- 点击测试,验证测试成功
- 至此已经完成相关模型配置项,就可以在沉浸式翻译插件中使用SiliconCloud 提供的大语言模型来提供翻译了。
Updated 11 days ago