(由SiliconCloud平台的图片生成模型Flux生成)
9月6日,AI写作初创公司HyperWrite推出了Reflection-Llama-3.1-70B,这是一个基于Llama-3.1-70B-Instruct的开源大语言模型,其显著特性是自我修正能力,使用的Reflection-Tuning技术使模型能够识别并修正自己的错误与幻觉,显著提高其准确性和可靠性。
官方称,该模型在多项基准评测中的性能超过GPT-4o以及Llama-3.1-405B,不过,根据不少开发者的性能实测,它目前的版本总体与其他顶尖模型的表现相似。
据OthersideAI (HyperWrite) 创始人Matt Shumer在X上的解释,目前上传到HuggingFace的Reflection-Llama-3.1-70B在上传过程中出现了问题,当前的模型权重混合了几种的不同模型,他们还在努力解决中。
无论如何,硅基流动团队还是第一时间在大模型API平台SiliconCloud上线了当前版本的Reflection-Llama-3.1-70B,用户可在实名认证后使用,感兴趣的朋友可以先试试。
感受一下Reflection-Llama-3.1-70B在SiliconCloud上的生成速度。
Playground传送门(需实名认证):
https://cloud.siliconflow.cn/playground/chat/17885302569
API文档:
https://docs.siliconflow.cn/reference/chat-completions-3
与其他各类开源大模型一样,开发者要在本地运行Reflection-Llama-3.1-70B模型有较高部署门槛与成本。现在,SiliconCloud上线该模型后,免去了开发部署的门槛,开发者可以轻松调用相应的API服务到实际应用中。
更重要的是,SiliconCloud平台对Reflection-Llama-3.1-70B做了推理加速,输出速度极快,能为你的生成式AI应用带来更高效的用户体验。
SiliconCloud平台的模型价格也极其亲民,Reflection-Llama-3.1-70B保持与Llama-3.1-70B一样的价格,只需¥4.13/1M token。此外,平台还支持开发者自由对比体验各类大模型,最终为自己的生成式AI应用选择最佳实践。
除了Reflection-Llama-3.1-70B,SiliconCloud已上架包括Qwen2、InternLM2.5-20B-Chat、BCE、BGE、SenseVoice-Small、Llama-3.1、FLUX.1、DeepSeek-V2-Chat、DeepSeek-Coder-V2、SD3 Medium、GLM-4-9B-Chat、InstantID在内的多种开源大语言模型、图片生成模型、代码生成模型、向量与重排序模型以及多模态大模型。
其中,Llama3.1(8B)、Qwen2(7B、1.5B)等多个大模型API免费使用,让开发者与产品经理无需担心研发阶段和大规模推广所带来的算力成本,实现“Token自由”。
作为集合顶尖大模型的一站式云服务平台,SiliconCloud致力于为开发者提供更快、更便宜、更全面、体验更丝滑的大模型API。
刚刚上线的Reflection-Llama-3.1-70B就是其中之一。后续Reflection-Llama-3.1-70B若有新版本更新,SiliconCloud也会及时跟进。
让超级产品开发者实现“Token自由”
邀请好友体验SiliconCloud,狂送2000万Token/人
邀请越多,Token奖励越多
siliconflow.cn/zh-cn/siliconcloud
(加入用户交流群请后台私信)
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。