blog
2025-08-14

我们都错怪GPT-5了,路由统一算力,免费用户也

henry 发自 凹非寺
量子位 | 公众号 QbitAI

GPT-5发布以来,路由架构是最受关心的部分之一。

它不仅实现了多个模型统一调度,而且还藏着奥特曼的诸多小心思。

比如成本更可控、悄悄识别意图插入广告等。

但是由于GPT-5不开源,这个框架具体啥情况咱们也都无从得知。

不过,最近开源社区出现了一个类似版本——Arch-Router,它会结合任务领域(如金融、法律)和具体动作(如摘要、生成代码)来制定路由策略,并连接到最适合的模型,与人类的偏好对齐。



顺着这个“开源版本”,GPT-5路由系统背后,OpenAI的更多设计也浮出水面。

什么是路由框架?

现有的路由方法主要分为两类,一类是任务型路由,将用户的请求直接导向处理特定任务的预定义模型

另一类则是基于性能的路由,通过成本-性能评分来调用最具性价比的模型。

然而,用户的请求往往是模糊且主观的,因此,上述的两类路由往往难以精准定位用户偏好,从而无法给出满意的回答。

为了解决上述问题,研究人员提出了我们开头提到的——偏好对齐路由框架Arch-Router,根据用户定义的偏好将路由策略和模型选择统一起来。

在这个框架中,用户使用领域-动作分类法(domain-action taxonomy)来定义自己的路由策略。

这模仿了人们通常描述任务的方式,从一个大的领域开始,然后逐渐缩小到一个具体的动作。例如从大的主题(金融、法律)开始,缩小到特定的动作(摘要或生成代码)。

路由过程分为两个阶段:



首先,Arch-Router将用户查询与自然语言描述的路由策略进行匹配。例如,如果一个策略被描述为“生成代码片段”,那么Arch-Router的任务就是识别出用户是否有这个意图,并选择这个策略。

其次,一个映射函数将选定的策略连接到其指定的LLM(比如Claude),进而完成任务。

值得一提的是,Arch-Router具有极强的灵活性。每当有新模型可用时,无需额外训练新的路由策略,只需要更新一个映射函数,将策略链接到最新的模型即可。

由此,用户可以根据不断变化的需求、性能优化或新模型的出现来动态地重新配置路由,同时保留已学习的路由逻辑。

在GPT-5的介绍文档中,这类基于偏好对齐的路由框架就占据了核心地位:

  • GPT-5是一个统一系统,包含一个智能高效的模型用于回答大多数问题,一个用于处理更复杂问题的深度推理模型(GPT-5思考模式),以及一个实时路由器,根据对话类型、问题复杂度、工具需求和用户明确意图(例如提示中说“认真思考这个”)快速决定使用哪个模型。

总结一下就是,GPT-5内部的路由框架能够根据问题类型、难度和用户意图自动选择轻量模型或思考模型,从而在成本和性能之间找到平衡。

不过,不同于Arch-Router只是提升模型的意图识别能力,GPT-5的路由框架被设计成驱动ChatGPT下一阶段发展的核心枢纽。

更好平衡成本,还能转化流量

为什么路由是GPT-5的核心枢纽?因为它同时解决了两件最难的事:

一是在用户规模暴涨而每次推理都有成本的前提下,把成本与性能进行动态匹配;二是如何在不把体验做成广告的情况下,把免费流量转化为真实营收。

近三年里,ChatGPT从“未进前100的网站”跃升至全球第五,其规模超过了X/Twitter、Reddit、Whats app、维基百科,并且正在迅速逼近Instagram、Facebook、Youtube和谷歌。



同时,在全球拥有7亿周活跃用户的同时,GPT还有着最快的用户增速。不过,这7亿用户里的99%都是免费用户。



此外,大模型的推理模式也意味着,如果想要获得高质量的输出,就必须实施更多的推理步骤,更频繁的工具调用,而这无疑将会显著抬高单次响应成本。



综上,这就产生了一个让奥特曼非常头疼的问题——(免费)用户越多、推理越多,成本支出就越多。



因为,在大模型里,每一次额外的推理都是真金白银的可变成本。这与互联网“用户新增的边际成本接近零”的“聚合理论”直觉相反。

像ChatGPT这样的大模型平台,每次推理(即每次生成答案)都要花费计算资源,产生成本。

这意味着它不可能对所有的用户都开放无限免费的深度推理,但与此同时,它又必须保证一定的可靠性(推理额度),来扩展、留住免费用户。

为了解决上述矛盾,就有了GPT-5这次的暴力更新——直接去除其他模型选项。



通过统一入口,让系统自动根据用户意图、问题复杂度和工具需求,智能分配轻量模型或深度推理模型。

对于低价值、简单的查询,模型可以用轻量模型快速回答,降低推理成本。而对于高价值、复杂的商业查询,模型则可以投入更多算力(更复杂的推理、更长的计算)。

这样一来,路由框架掌握了“谁来答、答到什么深度、何时调用工具”的主动权,在体验与成本之间做实时最优分配

当解决了性能分配问题时,就该考虑钱了。

毕竟就像上面说的,大模型用的越多,亏得越多,

所以,哪怕GPT-5上线第一天,接触推理模型的免费用户数就增长了7倍,付费用户数增长了3.5倍,问题的关键还是如何把99%免费用户口袋中的钱塞进OpenAI自己的腰包

试想一下,如果你是山姆·奥特曼,你拥有全球最大的用户触达平台之一,你该如何利用免费用户?

你肯定第一时间想到了卖广告,但GPT并没有“直接”这么做。

奥特曼曾公开表示对广告的厌恶态度:

  • 我承认,我讨厌广告,这是我个人的偏见。我认为广告对于早期互联网的商业模式至关重要。我并非完全反对广告,但广告加上人工智能让我感到特别不安。我感觉广告是商业模式的最后手段。

不过,最近奥特曼的口风有所松动:

  • 我并非完全反对……如果你把我们比作社交媒体或网络搜索,你就能看出它们正在被商业化……我们绝不想在LLM的学习过程中修改任何东西……或许,如果你点击了某个我们无论如何都会显示的内容,我们就能获得一些交易收入,而且所有东西都是统一的,也许这样可行。成为一家优秀的广告驱动型公司显然是可能的,但显然也存在一些问题。

OpenAI的Andrew Mayne更是在和奥特曼的对话中提到了相应的应用场景:

  • 我很想通过ChatGPT完成所有的购买,因为我经常觉得自己没有做出最明智的决定。

这种暧昧的态度似乎意味着,当大语言模型识别到用户存在明确的商业意图(如预订、购买、出行等),路由可调度更多算力提供深度服务,并在交易中收取订阅费、佣金或平台分成。

相比直接插广告,这更像一次智能的“代理服务”——这不是简单把广告塞进答案里,而是让路由把高价值意图引到“可转化的决策路径”上。

换句话说,要是您想跟GPT咨询一些购买意见,那GPT就会给你好好回答一番,而在达成交易后,GPT就可以从提供的选项、链接的接口、调用的api中收点服务费。

不过,让用户间接付费并不是OpenAI最终的目的。

因为,GPT-5的介绍文件还这样写道:

  • 路由会持续通过真实数据进行训练,包括用户切换模型的行为、对回答的偏好评分以及准确性评估,随着时间不断改进。一旦达到使用上限,每个模型的迷你版本会处理剩余的查询。未来不久,我们计划将这些能力整合到单一模型中

这就意味着,OpenAI真正想做的,是用路由机制掌控用户与模型的交互路径。

从你提问的那一刻起,系统就会判断问题复杂度、意图、工具需求,决定你走向轻量模型还是深度推理模型,并在必要时引导你接触付费入口或品牌推荐。

这样既能用低成本模型消化大部分免费流量,又能在高价值场景投入更多算力换取更高回报。

更关键的是,这套路由并不是固定规则,而是会根据真实使用数据不断自我进化——它会观察你是否切换模型、如何给答案打分、答案的准确率如何,并用这些信息优化决策逻辑。

即便你用到当日限额,系统也会切到“迷你版”模型,确保交互不中断。长远来看,这种持续学习的路由最终会收敛到一个统一模型,既控制了成本,又牢牢锁住了商业化的主动权。

由此,GPT既可以免费给普通用户基础服务,收揽新客户;也可以靠“高价值商业交易”的佣金赚回推理成本,甚至盈利,而这一切都由统一的路由框架调度。

而普通用户可怜的几次套餐限额没准还被算进了广告观看的人头次数。



所以,奥特曼让99%的白嫖党用上了类似o3的推理模型,还真不是在免费发福利。

GPT的猜你喜欢

你可以想象在未来,通过GPT来预订航班、购买商品、购买食物,GPT将链接到电商平台、支付平台、金融公司、乃至银行,而这一切走过路过的企业、用户、服务商都要给GPT交过路费。

尽管社交媒体仍然是当前获客最多的地方,但对于资本市场来说,谁拥有未来,谁就拥有一切。

毫无疑问,任何能够并愿意降低获客成本的公司都会乐于尽快行动和OpenAI合作。

ChatGPT将创造一个不同于线上和线下的第三消费空间,它能够减少对客服、广告、营销和其他功能的依赖,从而降低运营成本。

而这一切将实现奥特曼式的广告模式:没有张贴海报,没有巨型横幅,没有开屏广告,也没有插播。

有的只是你在和GPT谈心时,精准拿捏你消费诉求的“猜你喜欢”。


[1]https://semianalysis.com/2025/08/13/gpt-5-ad-monetization-and-the-superapp/
[2]https://www.reddit.com/r/LocalLLaMA/
[3]https://arxiv.org/abs/2506.16655
[4]https://www.archgw.com/
[5]https://github.com/katanemo/archgw

来源于:https://www.163.com/dy/article/K6UCO4VI0511DSSR.html    如有侵权请联系我们