头图

编者按: 当前 AI 基础模型的商业前景正面临前所未有的挑战。开源模型的性能日益接近甚至在某些领域超越闭源产品,高昂的推理成本让订阅制模式的盈利空间被严重挤压,而价格战使 API 服务利润率持续下滑。这些现实问题正迫使每一个在 AI 领域创业或投资的人重新思考商业策略。

本文作者基于一线市场观察和深度行业洞察,提出了一套商业模式组合拳。

首先,文章深入分析了基础模型的两大主要商业模式 —— 订阅制和 API 服务,并指出 API 模式虽然前期回报较低,但长期盈利潜力更大,且能创造更强的用户粘性。

作者还探讨了垂直整合战略的可能性,包括自研 AI 芯片、构建生态闭环、应用场景探索和服务延伸等路径。作者提出可以借鉴奢侈品行业的“准入壁垒”策略,将顶级模型作为“VIP 产品”仅向符合条件的客户开放,从而实现溢价和品牌势能增长。

最后,作者呼吁大型基础模型公司不要恐惧开源社区的崛起,而应主动拥抱,利用开源驱动创新飞轮。

本文系原作者观点,Baihai IDP 仅进行编译分享。

作者 | Devansh

编译 | 岳扬

生成式 AI 已在诸多领域带来了较大的生产力提升,但显然其潜力尚未被完全释放。这项技术蕴含着巨大的商业潜力,但人们却不知道如何将其释放出来 —— 尤其是考虑到这些技术获得的巨额投资与开源模型的崛起,后者在生成质量和生成速度上已能匹敌闭源模型。

Image[1]

关于生成式 AI 如何盈利此前已有诸多精彩的讨论,但所有人都忽略了一个关键点 —— 基础模型的商业化不仅是一个工程或产品战略问题。企业最终采取的战略,往往受内部博弈和公关考量驱动,其程度不亚于实际业务/技术因素的影响。

当我们深入讨论被误解的开源大语言模型时,这场对话会变得更加扑朔迷离。开源模型的表现、较低的投资和“免费”特性,让人们误以为它们将彻底终结闭源模型的需求。

虽然这种想法让我内心痒痒的,但现实是:基于开源模型的开发成本极其高昂,这正是许多开发者最终转向使用大型模型供应商 API 的根本原因

本文将剖析基础模型的主要商业模式,解答萦绕在每个人心头的疑问 —— 在“免费”开源基础模型时代,ChatGPT、Gemini 或 Claude 等基础模型将如何盈利?

剧透预警 —— 其中一种商业模式的灵感源自奢侈品手提包(真正的奢侈品)。阅读至文末,你会了解奢侈品牌为何可能成为大语言模型供应商值得效仿的商业范本。

01 核心要点 (TL;DR)

从最高层级来看,大语言模型主要有两种盈利方式:

1.1 订阅制

当前大多数用户都是通过订阅制使用大语言模型。这种模式的商业逻辑简单明了 —— 每月支付 X 美元,即可与“Y 大模型”进行 Z 次交互。

订阅制适用于用户需要直接与模型进行单轮或多轮对话的简单场景,特别是当任务的复杂度较低,通过模型内置知识库和简单输入即可解决时效果最佳。

从商业角度来看,我对 LLMs 中的订阅制印象最深的是以下几点:

1) 前期收益可观,但盈利潜力有上限(收入无法超越用户支付的订阅费用)。 这对大语言模型供应商来说是个比较大的问题,因为模型推理成本极高。Netflix 可以大规模地为订阅用户提供服务,因为其边际成本极低(存储费用、人才成本、版权费用等主要成本都是一次性支出)。而大语言模型供应商面临持续高企的推理成本,设置一个收入上限将导致单位经济效益(译者注:unit economics,平均一个买卖单位的收入与成本的关系。)恶化。

2) 订阅制的销售难度最低,但由于定制化程度不足导致用户黏性最弱。 用户可以轻易转向使用竞品的订阅服务。

3) 某种程度上将大语言模型从基础资源转化为应用产品了,有助于规避当前 API 领域惨烈的价格战(这在基础资源领域已经十分常见了)。但第二点特性仍使总体需求对价格高度敏感,导致订阅制本身极易陷入价格战泥潭。

相关概念提示[2]

总而言之,依赖订阅制会与用户之间产生一种有趣但又紧张的关系 —— 你希望用户订阅服务却不使用服务,这种行为反而会进一步降低用户的忠诚度。否则,你的选择只能是限制服务使用量(Claude 即使对付费用户也设定了使用限额),或者像 OpenAI 那样承担潜在的亏损来维持大语言模型的运营。

Discussed this news here[3]

如果你认为订阅制是最好的商业模式,你需要赌对以下前提:

1) 绝大多数用户的需求足够简单,只需一个通用界面即可满足大多数用户需求;

2) LLM 推理成本的下降趋势是"真实存在"的 —— 该下降趋势应源于供应商的成本结构优化,而非通过牺牲利润换取市场份额;

3) "真实的"推理成本将持续走低,提升订阅制的利润空间。 例如:若能将实际推理成本降至0.03 美元/百万 tokens(为简化计算,此处将输入 token 和输出 token 合并统计),那么 20 美元的订阅费用可覆盖约 66,000 次 10K tokens 规模的查询(不过当涉及大规模输入语料库及搜索/引用等附加功能时,实际成本可能因上述复杂场景迅速接近甚至超过订阅费,但这个数字(约 66,000 次 10K tokens 规模的查询)仍很可观)。但需注意,这些都是理想情况下的数据(目前性价比最高的 Gemini 1.5 8B 模型,输出成本 0.3 美元/百万 tokens,输入成本 0.075 美元/百万 tokens,仍大幅高于假设值)。

向早期的经典建模软件致敬

依我看 —— 观点 1(译者注:标准化产品(如 ChatGPT 的聊天框)已能满足多数用户需求)有一定道理,观点 2(译者注:LLM 推理成本的长期下降趋势是真实的)纯属扯淡,观点 3(译者注:若推理成本真能持续下降,订阅模式利润将显著提升)虽有可能但面临重大技术障碍与组织惯性阻力。这也正是我不看好订阅制的原因。相关分析将另文详述,此处先简要概括:

1) 许多团队因“政治考量”/品牌营销方面的考虑,会持续鼓吹扩展模型规模。 以 Recursion Pharmaceuticals(RXRX)(译者注:Recursion Pharmaceuticals (纳斯达克股票代码: RXRX) 是一家成立于2013年的临床阶段生物技术公司,总部位于美国犹他州盐湖城。公司专注于运用人工智能 (AI) 和机器学习技术革新药物发现流程,主要聚焦于遗传性罕见疾病和肿瘤学等领域。)为例,这一点是我对该公司唯一的质疑。尽管我总体认可其技术路线,但该公司反复宣扬其对超级计算机的投资却避谈商业价值评估(我曾在覆盖报告[4]中警示过此问题),这种行为实属危险信号。在我看来,这不过是又一家试图通过"深度学习+英伟达+规模扩展"叙事推高估值的公司(该观点曾引发其不满,但从未获得实质性反驳)。此类现象绝非 RXRX 独有,大量案例显示很多团队因激励机制错位而选择高成本路径(完整清单见此[5]),沉没成本、模型规模崇拜等因素将使得进行根本性的变革举步维艰。

2)技术层面,现有大语言模型的优化方案可能会阻碍其向更高效架构的转型。

我不是记者,也不是八卦博主,所以我不会把我与大科技公司高层领导的对话写成文章,他们也坦言推行创新优化方案时遭遇的阻力远超外界想象,这种系统性压力将有效遏制实际成本的过度下降。

source[6]

1.2 API

这是我最喜欢的盈利方式。LLM 供应商提供 API keys,允许开发者按 token 使用量付费。这种方式的前期回报较低,但基于 API 的计费有诸多优势:

1) 回报没有上限。

2) 基于 API 的开发者会投入更多时间围绕 LLM 的特性优化产品,切换模型时面临更高的机会成本,这天然形成了更强的用户粘性。

3) 减少与存储数据相关的资源消耗和安全风险担忧 —— 正如深度求索(DeepSeek)事件所示,这个问题远比表面复杂。

短短数分钟内,我们就发现了深度求索存在可公开访问的 ClickHouse 数据库,该数据库完全开放且无需认证即可访问敏感数据。该数据库位于 https://oauth2callback.deepseek.com:9000 和 dev.deepseek.com:9000。

该数据库存储着大量聊天记录、后台数据和敏感信息,包括日志数据流、API 密钥和技术或业务细节。

更严重的是,该漏洞使得外界无需进行任何认证即可完全控制数据库,并可能在深度求索系统内实现“提权”。

深度求索的公开数据库允许外部人员完全控制所有操作,包括访问内部数据。此次内部数据暴露涉及超百万行包含敏感信息的日志数据流。

当前的 API 定价面临着巨大的挑战,因为它将 LLM 变成了大宗商品(其他产品用于增值的原材料),使其深陷价格战泥潭。由于大宗商品极度依赖价格竞争,这导致每个竞争参与者的利润率持续走低。这就是行业预估的 LLM API 利润率一直在下降的原因。

Image Source[7]

我喜欢 API 业务的利润空间,因为它具有爆发性增长的潜力。 这点是源于技术领域天然的垄断属性,任何真正实现技术差异化的供应商都将主导市场。虽然中短期内难以实现(该领域仍处于早期阶段),但一旦突破临界点,回报将呈指数级增长。因此,值得搏一搏。

换个角度说,我推崇 API 战略的核心逻辑在于:当你在专业领域做到极致时,市场竞争将变得无关紧要。当进入这一阶段,API 将释放出巨大的商业价值。如果我执掌某家 LLM 企业,我会牢牢盯住这个目标。回避这场关键战役本质上是为保生存而战,而非为胜利而战,这种畏首畏尾的姿态难以在科技史上留下真正的印记。

当前主流的 LLM 供应商都在通过不同的方式探索变现路径(头部玩家已同步布局聊天界面订阅制与 API 服务)。不过,他们还可以从很多方向发展。

  • 垂直整合战略:包括芯片/推理优化、应用层开发、各种延伸服务、建立战略联盟(参照 Palantir 模式)等路径。这种整合将创造收入增长极、优化成本结构,并加速产品的市场渗透。
  • 借鉴奢侈品行业“准入壁垒”策略:通过建立分级访问机制强化模型安全性,同时塑造 LLM 的稀缺价值。这种看似反常识的商业逻辑,在高级定制时装领域已被验证有效,或许能为 AI 领域提供差异化竞争的思路。

Source[8]

02 垂直整合战略如何赋能 LLM 发展

接下来探讨垂直整合的可能性。模型供应商将在人工智能价值链上实施前向或后向整合 —— 后向整合旨在降本,前向整合旨在拓展收入来源。

Source[9]

该战略可能呈现多种形态。

2.1 LLM 模型供应商进军硬件领域

Sam Altman、亚马逊和谷歌都在尝试自研 AI 加速芯片。此举既能降低对英伟达等外部供应商的依赖,又能通过专用芯片设计实现更优的性能表现。

Image Source[10]

2.2 构建 LLM 生态闭环

谷歌的生成式 AI 布局堪称典型案例(若非这家公司屡屡错失技术领先优势,本可成为完美示范)。虽然大众认知中 Gemini 是谷歌云的核心创收引擎,但鲜为人知的是谷歌还通过云平台提供视频嵌入模型(video embedding model)等AI产品(尽管性能平庸但比较实用)。这种商业模式的逻辑简明有力 —— 以 LLM 为流量入口,继而向用户交叉销售完整生态服务。

对于那些对这种玩法感兴趣的研究者来说,谷歌的案例极具启示意义。早在 2022 年初,他们就“万事俱备” —— 高性能的多模态模型 PaLM 与高效的 TPU 芯片。然而混乱的产品战略、疲软的营销策略、缺失的销售体系,加之谷歌云平台自身的缺陷,最终葬送了巨大的技术先发优势。

因此,任何试图效仿这一模式的企业,必须谨慎规避,避免重蹈覆辙。

2.3 应用场景探索

以 Meta 为典型案例进行剖析。该公司虽不直接从 LLM 中获取收益,但确实依赖 LLM 来优化其社交平台的用户体验。通过开源 Llama 模型的众包开发策略,Meta 成功撬动开发者生态反哺技术迭代,并将优化成果反哺至广告推荐等核心业务。这种迂回变现路径的启示在于:供应商可借力开源社区完善技术底座,间接赋能主营业务实现增值,而非直接利用 LLM 盈利。

2.4 服务延伸路径

最后,LLM 公司可以向 AI 解决方案服务商转型。通过为企业客户提供端到端的实施服务,既能开辟订阅收入之外的新盈利渠道(服务费+产品使用费),又能撬动政府、律所、金融机构等非技术领域的高净值客户群。具体可分为三类模式:

  • 埃森哲模式

依托品牌效应承接大型政企订单,要么直接执行合同,要么将其分包出去。四大咨询公司已验证该模式的可行性 —— 他们通过出售自己的 “专业知识”,为那些简易软件收取天价服务费。当项目复杂度超出能力边界时,可分包给某方面更专业的公司赚取差价。

Image[11]

然而,该模式并不适合大多数硅谷企业,因为他们对服务型公司存在根深蒂固的优越感(认为产品天生优于服务,这种偏见源于对少数成功案例的过度外推和短视判断)。对于那些坚持产品本位但希望试水通过提供服务获利的企业,下个模式或许更具参考价值。

  • Palantir 模式与 Forward Deployment Engineers

Palantir 完美诠释了"产品+服务"组合的创收潜力。通过向高净值客户(如政府机构)部署配备专业 forward deployment engineers(译者注:指直接驻扎在客户现场或与客户密切协作的技术团队,负责产品部署、定制化实施和技术支持。) 团队,他们实现了产品部署与客户服务的无缝衔接。这种业务模式已被他们验证具有强大变现能力。

数据说明一切

LLM 供应商可复制该模式。可以与地方政府有深厚关系的服务商建立合作,培训其团队成为 forward deployment engineers,借助现成关系网络加速产品渗透。这种合作能够创造双赢的局面 —— LLM 供应商无需大量基础工作即可触达新客户,而咨询服务公司则能够提升相关技术能力,并且凭借与供应商的联盟关系,服务商可承接更高端、利润更丰厚的项目。

  • Cohere 模式

该 LLM 供应商更进一步,除了上述方法,还向客户出售可以本地化部署的私有模型。但在开源模型性能突飞猛进的当下,这种策略已显疲态。Cohere 目前依靠强大的 DevRel 工作与开源生态勉强维持,但据行业交流反馈,他们已经大不如前了。该模式虽不适合作为核心战略,但或可用于老旧/冷门模型的变现(某些买家可能出于逆向工程目的采购)

昔日被誉为 GPT 最强竞品的 Cohere 沦落至此,令人唏嘘

至此已完成当下主流战略的全景扫描。但未来将走向何方呢?

03 准入壁垒与生态联盟 —— 未来基础模型商业模式的基石

注:该观点源自笔者的挚友、顶级投资人 Eric Flainingam[12]。

随着模型蒸馏等技术逐渐消解基础模型间的技术代差,部分 LLM 供应商可能不愿向非认证用户开放完整的 API 权限。此时,有限制的访问策略(Gated Access Strategy)就能派上用场了:LLM 供应商可与企业客户签订最低使用协议(minimum-use contract),将其最优模型作为“VIP 产品”仅向符合条件者开放(如已在其他产品线消费一定金额的客户)。这样,这些模型基本上也成为了一种“奢侈品”。

这种模式看似反直觉,但其商业逻辑却异常坚实:

1)通过最低使用协议锁定基础收入

2)多数场景下,次级模型已能满足客户需求(市场低估了这些模型的实际能力)

3)确保了最强大的模型不会被复制,因为仅允许少数高价值企业客户访问模型的话,他们的使用情况更容易被跟踪

4)增加品牌势能,构筑护城河(对标奢侈品"稀缺性溢价"的心理机制)

5)高阶模型可实施溢价定价,释放利润空间

我愈深入推敲,愈坚信该策略是赚钱的。将最好的 LLM 塑造为"身份象征",会让用户更不愿意转向使用竞争对手的产品。唯一的风险在于"旗舰模型"可能会因调用量不足而缺乏实战验证 —— 这个隐患可通过在订阅制的聊天界面给用户使用这些“旗舰模型”,但限制用户的模型可使用量来缓解:这样既能收集用户反馈,又能提升平台的活跃度,在产品之间产生协同效应。

以上即为当前 LLM 提供商可行的主流商业模式。我预计各 LLM 供应商能够融合采用多种策略,寻找到最优解。 如 API 章节所述,我认为该领域天然趋向垄断格局,最终赢家将通吃市场。虽不知胜者何人,但科技史的经验昭示此乃必然 —— 正如死神 Yama 骑着水牛逼近垂死之人一样,行业的整合步伐看似缓慢,但它就在稳步地向我们逼近。智者当未雨绸缪,主动布局。

文末,容我向各位 LLM 提供商的领导层给出一些建议:关于该如何面对开源社区的汹涌攻势。

04 开源洪流下的生成式 AI 盈利之道 —— 兼论 LLM 供应商为何无需畏惧开源社区的挑战

近期的行业动态揭示了一个充满讽刺的现实:许多标榜拥护自由市场与技术中立的 LLM 领袖,竟纷纷游说美国政府实施出口管制,以"保护美国利益"之名遏制 DeepSeek。这并非 LLM 厂商首次对开源表现恐慌(当 Llama 模型遭泄露时,Sam Altman 即借"AI安全"之名推动监管立法,实则是制造恐慌并争取监管)。

这场闹剧始于 2023 年中[13],本质仍是老调重弹

本文最后,请允许我向这些“自由与进步的先锋”们发出一个简单的请求:与其逃避开源浪潮,不如主动拥抱。对开源社区的恐惧不仅损害行业生态,更将侵蚀你们自身的利润根基。

首先,开源会驱动创新飞轮。技术商业门外汉或认为开源会侵蚀商业利益,但任何深度商业分析都会告诉你事实恰恰相反。开源将带来更多技术创新,而作为手握顶级资源的技术先驱,你们比任何人都更擅长将社区成果转化为竞争优势。

开源本就是门好生意(这篇文章[14]已详述相关变现路径)

此战略的核心价值在于能够加速垄断地位形成 —— 通过开源促进技术扩散,能加快技术进步,让你成为该领域的佼佼者,让你从垄断中获利。扼杀开源实质是在阻碍自身垄断进程。

其次,恐惧性的政策会暴露战略上的怯懦。当企业沉迷于炒作威胁论与政策寻租时,实则是在向世界宣告:我们缺乏技术自信,唯有通过非正常竞争手段求生。这种弱者姿态终将被识破 —— 员工将意识到高管的潜台词是"你们(员工)不够优秀"。试问这对团队士气与创新动力是何等打击?

最后,失格者终遭唾弃。或许是因为存在文化认知差异(笔者成长于新德里而非硅谷)。在新德里街头哲学中:自称街区霸主却遇挑战即逃,手握千亿资金、顶尖人才、政策倾斜等绝对优势仍哭求政府庇护 —— 这等行径不会被视作充满智慧、有战略眼光或审慎。

在新德里,我们会称其为懦夫。

当然,这可能只是文化差异使然。若有不同观点,愿闻高见。

Thanks for reading!

Hope you have enjoyed and learned new things from this blog!

About the author

Devansh

The best meme-maker in Tech. Writer on AI, Software, and the Tech Industry. Currently in NYC Come say hi, I want more friends.

END

本期互动内容 🍻

文中提出"把最强的 LLM 做成奢侈品",你认为这种策略更适合哪种场景?比如政府安全部门专用模型、华尔街量化机构的量化大模型、好莱坞顶级影视 IP 创作工具...

🔗文中链接🔗

[1]https://medium.com/@samarrana407/mistral-small-3-the-open-sou...

[2]https://www.thoughtco.com/price-elasticity-of-demand-overview...

[3]https://www.linkedin.com/posts/devansh-devansh-516004168_subs...

[4]https://artificialintelligencemadesimple.substack.com/p/using...

[5]https://artificialintelligencemadesimple.substack.com/p/how-s...

[6]https://artificialintelligencemadesimple.substack.com/p/is-ai...

[7]https://futuresearch.ai/openai-api-profit

[8]https://www.diamondbanc.com/insider-news/why-are-hermes-birki...

[9]https://www.generativevalue.com/p/the-current-state-of-ai-mar...

[10]http://www.eitc.org/research-opportunities/photos1/cpu-vs-gpu...

[11]http://sherwood.news/business/generative-ai-consulting-war-bl...

[12]https://www.linkedin.com/in/ericflaningam/overlay/about-this-...

[13]https://blog.google/outreach-initiatives/public-policy/google...

[14]https://artificialintelligencemadesimple.substack.com/p/why-c...

本文经原作者授权,由 Baihai IDP 编译。如需转载译文,请联系获取授权。

原文链接:

https://artificialintelligencemadesimple.substack.com/p/how-w...


Baihai_IDP
153 声望458 粉丝

IDP是AI训推云平台,旨在为企业和机构提供算力资源、模型构建与模型应用于一体的平台解决方案,帮助企业高效快速构建专属AI及大模型。