今天,SiliconCloud正式上线Embedding模型BAAI/bge-large-zh-v1.5、BAAI/bge-large-en-v1.5,支持最大token长度均为512 token,batch size最大为 32。目前,这两款模型可免费使用。
模型地址:
https://siliconflow.cn/models#models
调用文档:
https://docs.siliconflow.cn/reference/createembedding-1
语义向量模型(Embedding Model)是语言模型生态体系中的重要组成部分,被广泛应用于大语言模型检索增强(RAG)、搜索、推荐、问答等应用场景,它将自然形式的数据样本(如语言、代码、图片、音视频)转化为向量(即连续的数字序列),并用向量间的“距离”衡量数据样本之间的“相关性” 。
在大模型时代,它更是用于解决幻觉问题、知识时效问题、超长文本问题等各种大模型本身制约或不足的必要技术。
智源发布的开源可商用中英文语义向量模型BGE,在中英文语义检索精度与整体语义表征能力优秀。此外,BGE保持了同等参数量级模型中的最小向量维度,使用成本更低。
现在,将BGE-Large与SiliconCloud上的大语言模型结合,生成式AI应用开发者可以为用户提供更好语言理解与生成能力,构建更智能、更高效、用户友好的应用。
Token工厂SiliconCloud
Qwen(7B)、GLM4(9B)等免费用
除了BAAI/bge-large-zh-v1.5、BAAI/bge-large-en-v1.5,SiliconCloud已上架包括DeepSeek-V2-Chat、DeepSeek-Coder-V2、Stable Diffusion 3 Medium、Qwen2、GLM-4-9B-Chat、Llama3、SDXL、InstantID在内的多种开源大语言模型、图片生成模型与代码生成模型。
其中,Qwen2(7B)、GLM4(9B)等多个大模型API免费使用,让开发者与产品经理无需担心研发阶段和大规模推广所带来的算力成本,实现“Token 自由”。
作为集合顶尖大模型的一站式云服务平台,SiliconCloud为开发者提供更快、更便宜、更全面、体验更丝滑的模型API。
SiliconCloud支持用户自由切换符合不同应用场景的模型,同时提供开箱即用的大模型推理加速服务,为生成式AI应用带来更高效的用户体验。
开发生成式AI应用,减少响应时间
就用SiliconCloud
(加入用户群可后台私信)
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。