就在昨天,AI 领域迎来了一项重大突破 ——MiniMax 发布并开源了新一代 01 系列模型。国产大模型市场再掀巨浪,传统Transformer架构或许将不再是唯一选择。

MiniMax-Text-01模型:
https://huggingface.co/MiniMaxAI/MiniMax-Text-01

MiniMax-VL-01模型:
https://huggingface.co/MiniMaxAI/MiniMax-VL-01

github:
GitHub - MiniMax-AI/MiniMax-01

技术报告:
https://filecdn.minimax.chat/_Arxiv_MiniMax_01_Report.pdf

01 模型优势

MiniMax 对开源新模型 MiniMax-01 的态度是积极且充满信心的。他们认为这一模型的开源具有重要意义,一方面希望通过开源启发更多长上下文的研究和应用,从而更快促进 Agent 时代的到来;另一方面,开源也能促使他们努力做更多创新,更高质量地开展后续的模型研发工作。MiniMax-01 系列包含基础语言大模型 MiniMax-Text-01 和视觉多模态大模型 MiniMax-VL-01。这两个模型的优势十分显著。首先,它们首次大规模实现了线性注意力机制,打破了 Transformer 传统架构记忆瓶颈,在处理长输入时具有非常高的效率,接近线性复杂度。其参数量高达 4560 亿,其中单次激活 459 亿,能够高效处理全球最长 400 万 token 的上下文,可输入长度是 GPT-4o 的 32 倍,Claude-3.5-Sonnet 的 20 倍。在业界主流的文本和多模态理解任务处理表现上,大多情况下可追平海外公认最先进的模型。在长文任务中,随着输入长度变长,性能衰减最慢,效果出众。例如,在与目前上下文能力最强的 Google Gemini 对比时,显示出更强的稳定性,且随着输入文本增加,评分开始明显领先。此外,它们还具有高压缩率、文本响应好和风格多样等特点,能够根据文本提示生成风格多样的视频等内容。
image.png

02 模型亮点

在 MiniMax-01 的技术报告中,有诸多亮点。从算法到架构再到软硬件训推一体的基础设施,MiniMax 的技术品味和定力都得以体现。他们选择了 4560 亿的总参数,由 32 个 Experts 组成的 MoE(混合专家)模型,经过各种实验后确定了 32 个专家模块,在单台机器 8 个 GPU 和 640GB 内存的条件下,使用 8 位量化处理超过 100 万个 token。同时改进了全新的 Expert Tensor Parallel(ETP)和 Expert Data Parallel(EDP)架构,降低数据在不同专家模块间通信的成本。

在注意力机制层面,MiniMax-01 进行了大胆创新,在业内首次实现了新的线性注意力机制。其 80 层注意力层里,每一层 softmax attention 层前放置了 7 层线性注意力 lightning attention 层,通过 “分块计算” 和递归更新的方法,捕捉全局语义关系,大大减少了计算和内存需求。此外,还引入了 Varlen Ring Attention,直接将整个文本拼接成连续序列,使变长序列的数据按需分配资源。
image.png

MiniMax 想要解决的问题主要是在 AI Agent 高速发展的关键年份,为其提供支持。随着智能体处理的任务越来越复杂,数据量越来越大,长上下文能力与多模态处理能力的提升成为必要条件。MiniMax-01 的推出,迈出了建立复杂 Agent 基础能力的第一步,旨在为各行业带来更为丰富、高效、智能的解决方案。

03 关于MiniMax-01的展望

MiniMax-01 系列模型的发布和开源,是人工智能领域的一次重要突破。其创新的架构、卓越的性能以及对未来发展的积极推动,为行业带来了新的机遇和挑战。
当然,在带来创新和突破的同时,也面临一些潜在风险与挑战。
首先是版权问题。随着 AI 技术的发展,数据的使用和版权保护之间的平衡至关重要,如何确保使用的训练数据合法合规是关键。
其次,模型的可解释性仍有待提高。尽管其性能出色,但复杂的架构和算法可能导致决策过程难以理解,这在一些对决策透明度要求较高的领域可能引发问题。
此外,技术的快速发展可能导致模型的安全性受到威胁。例如,可能存在恶意攻击或数据篡改的风险,从而影响模型的准确性和可靠性。
同时,市场竞争激烈,其他公司也在不断进步,MiniMax 需要持续创新和优化,以保持其在行业中的领先地位。
面对这些风险与挑战,相信在 MiniMax 的努力和开源社区的共同参与下,这一系列模型会不断完善和发展。

**GpuGeek会持续给各位AI极客提供最新、最热、最前沿的消息,欢迎大家多多关注~
GpuGeek计费灵活、使用便捷、高效协作、支持多卡!
使用请登录:gpugeek.com
**


GpuGeek
1 声望0 粉丝

GpuGeek,成就AI极客!