面壁智能
在 AI 的世界里,总有那么几个时刻让人惊叹不已。面壁智能推出的 MiniCPM 3.0,这个仅有4B参数的"小钢炮",正在以惊人的实力挑战着 GPT-3.5 这个曾经的AI巨人。
MiniCPM 3.0
MiniCPM 3.0
MiniCPM 3.0 目前的主要功能有:
长上下文功能:原生支持 32k 上下文长度,性能完美。我们引入了 LLM x MapReduce 方法,理论上可以处理长达无穷大的上下文长度。
出色的中英文教学跟随能力:超过 GLM-4-9B-Chat 和 Qwen2-7B-Instruct 的英语教学遵循 IFEval 和中文教学跟随 FollowBench-zh。
卓越的推理能力: 在数学能力方面,它优于 GPT-3.5-Turbo 和 MathBench 上的几个 7B-9B 模型。在极具挑战性的 LiveCodeBench 上,它超越了 Llama3.1-8B-Instruct。
支持函数调用🛠️和代码解释器:在伯克利函数调用排行榜 (BFCL) 上参数少于 9B 的模型中实现了 SOTA,性能优于 GLM-4-9B-Chat 和 Qwen2-7B-Instruct。
RAG 功能:我们发布了 MiniCPM RAG Suite。MiniCPM-Embedding 和 MiniCPM-Reranker 基于 MiniCPM 系列模型,在中英跨语言检索测试中实现了 SOTA 性能。MiniCPM3-RAG-LoRA 专为 RAG 场景设计,在开放域问答等多项任务上优于 Llama3-8B 和百川 2-13B 等模型。
性能对比
各项参数对比
MiniCPM 3.0 尽管只有4B的参数大小,但测试数据表示它的能力可不一般。
各项参数对比
这个"小不点"不仅在多项能力上超越了 GPT-3.5,还在某些方面胜过了Qwen2-7B、Phi-3.5、GLM4-9B 和 LLaMa3-8B 等"大块头"。而且从平均的水平来看更是力压群雄,超过了所有对比的模型。
各项参数对比
在上下文长度为 32k 的 Needle in a Haystack 测试中,MiniCPM 3.0 展现出了超越 GPT-4 和 KimiChat 等顶级模型的长文本处理能力。它就像是一个永不疲倦的阅读者,无论文本多长,都能保持高效准确的理解和处理。
有关厚德云
厚德云致力于为用户提供稳定、可靠、易用、省钱的 GPU 算力解决方案。海量 GPU 算力资源租用,就在厚德云。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。