昨天,硅基流动的SiliconCloud正式成为沉浸式翻译官方接入的首个大模型云服务平台。用户可在沉浸式翻译的“翻译服务”中直接选择SiliconCloud,无需自主配置API就可免费使用8款大模型,获得比传统翻译模型更高质量、更高性能的翻译体验。
目前,沉浸式翻译上的SiliconCloud服务默认的免费大模型为Qwen2-7B,你也可以切换Qwen2、InternLM2.5、GLM、Yi1.5系列的任一免费模型。
当然,如果你想使用Llama 3.1(70B)、DeepSeek V2(236B)、Qwen2(72B)、Gemma2(27B)等大参数模型,目前可通过自定义翻译服务接入SIliconCloud相应模型的API(https://docs.siliconflow.cn/docs/use-siliconcloud-api-in-imme...)。未来,这些大参数模型也会加入沉浸式翻译的会员体系全家桶。
SiliconCloud所提供模型的中英互译模型的效果如何?
基于同一段文本的“英译中”翻译,相比谷歌翻译与微软翻译,SiliconCloud上的Qwen2(7B)模型输出的译文更准确,输出速度更快(一般是90 tokens/s),效果更好。
硅基流动的SiliconCloud与沉浸式翻译的合作充分发挥了双方的优势,形成了强大的协同效应。
作为全网口碑炸裂的双语对照网页翻译插件,沉浸式翻译结合大语言模型对于跨语言的理解能力,能够实时翻译外语内容,可应用于网页阅读、PDF翻译、EPUB电子书翻译、视频双语字幕翻译等场景,并支持各种浏览器插件和应用使用。自2023年上线以来,这款备受赞誉的AI双语对照网页翻译扩展,已帮助超过100万用户跨越语言障碍,自由汲取全球智慧。
硅基流动的一站式大模型API服务平台SiliconCloud为开发者提供更快、更全面、体验更丝滑、性价比更高的模型API,已上架包括Llama3.1、DeepSeek-V2-Chat、DeepSeek-Coder-V2、Stable Diffusion 3 Medium、Qwen2、GLM-4-9B-Chat、SDXL、InstantID在内的多种开源大语言模型、图片生成模型与代码生成模型。其中,Qwen2(7B)、GLM4(9B)等多个大模型API免费使用,帮助开发者真正实现 “Token自由” 。
SiliconCloud支持用户自由切换符合不同应用场景的模型,实现了大模型高效推理加速,为生成式AI应用带来更高效的用户体验,让独立用户与企业聚焦产品创新,无需担心研发阶段和大规模推广所带来的高昂算力成本。
沉浸式翻译地址:https://immersivetranslate.com/zh-Hans/
SiliconCloud地址:https://siliconflow.cn/zh-cn/siliconcloud
硅基流动致力于打造大模型时代的AI基础设施平台,通过算法、系统和硬件的协同创新,跨数量级降低大模型开发门槛与应用成本,加速AGI普惠人类。
(加入用户交流群请后台私信)
官方网站:www.siliconflow.cn
简历投递:talent@siiconflow.cn
商务合作:contact@siliconflow.cn
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。