(由SiliconCloud平台的图片生成模型Flux生成)
近日,Meta发布了备受瞩目的Llama-3.1系列模型,包括405B “超大杯”模型傲视群雄,成为首个比肩最强大模型的开源模型。
一如既往,SiliconCloud平台快速支持了Llama-3.1-8B(可免费使用)、Llama-3.1-70B模型。今天,Llama-3.1-405B大模型正式在SiliconCloud平台上线,用户在实名认证后可用。API调用文档:
https://docs.siliconflow.cn/reference/chat-completions-1
Llama-3.1系列模型评测表现及亮点
Llama-3.1系列包括8B、70B、405B参数三个版本模型,上下文长度扩展至128k,支持八种语言,具有良好的代码生成能力、复杂推理能力以及工具使用能力。更长的上下文让模型能够处理更复杂和深入的对话场景,以及更自然的交互体验。
其中,Llama-3.1-405B模型是目前最大规模的开源大模型,根据官方提供的各项测评数据,多项评测指标超越了最强闭源大模型GPT-4o和Claude 3.5 Sonnet,并在这些指标中全面超越了GPT-4。
Llama-3.1-405B的面世不仅将开源LLM带到了新高度,也鼓舞了开源社区,更重要的是,它为开源社区的开发者提供了更智能、高效的服务,SiliconCloud平台支持后也必将进一步加速生成式AI应用的创新与繁荣。
不过,与其他各类开源大模型一样,由于Llama-3.1系列模型尺寸极大,开发者在本地开发部署的难度极高。好消息是,大模型API服务平台SiliconCloud现在上线了Llama-3.1全系列模型,免去了开发者自己开发部署的门槛,可以轻松调用相应的API服务到自己的实际应用中。
更重要的是,SiliconCloud平台对这些模型做了推理加速,输出速度极快、价格极其亲民(Llama-3.1-405B只需¥21.00/1M tokens),支持开发者自由对比体验各类大模型,从而为自己的生成式AI应用选择最佳实践。
Token工厂SiliconCloud
Llama-3.1(8B)、Qwen2(7B)等免费用
除了Llama-3.1,SiliconCloud已上架包括FLUX.1、BAAI/bge-large、DeepSeek-V2-Chat、DeepSeek-Coder-V2、SD3 Medium、Qwen2、GLM-4-9B-Chat、SDXL、InstantID在内的多种开源大语言模型、图片生成模型与代码生成模型。
其中,Llama-3.1(8B)、GLM4(9B)等多个大模型API免费使用,让开发者与产品经理无需担心研发阶段和大规模推广所带来的算力成本,实现“Token 自由”。
作为集合顶尖大模型的一站式云服务平台,SiliconCloud为开发者提供更快、更便宜、更全面、体验更丝滑的模型API。
SiliconCloud支持用户自由切换符合不同应用场景的模型,同时提供开箱即用的大模型推理加速服务,为生成式AI应用带来更高效的用户体验。
SiliconCloud,让超级产品开发者实现“Token自由”
现在,每成功邀请一位SiliconCloud新用户,奖励2000万Token/人。
Token奖励上不封顶,传送门:
siliconflow.cn/zh-cn/siliconcloud
加入用户交流群请后台私信
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。