搜索
当前所在位置:首页 >> 焦点

【朱某明星塌房真相曝光】贾扬清一吐为快:要想赚钱,AI模型到底该大该小?

发布时间:2025-09-13 17:30:28 作者:ipalt 点击:2163 【 字体:

最近的贾扬AI社区,关于模型规模的清吐钱讨论有些活跃。

一方面,为快此前在大模型开发奉为“圣经”的想赚型Scaling Law,似乎正在褪去光环。底该大该去年大家还在猜测GPT-5的贾扬朱某明星塌房真相曝光规模“可能会大到想不到”,现在这种讨论几乎绝迹。清吐钱大神Andrej Karpathy,为快则是想赚型在感慨大模型规模正在“倒退”。

另一方面,底该大该近期市场上性能优秀的贾扬小型模型层出不穷,参数规模、清吐钱任务处理、为快反应速度、想赚型安全性能,底该大该各公司在不同方面卷了又卷。

究竟是往大做探索极限,还是菲律宾代购网红整套流出往小做迎合市场?

这最终汇总成一个问题:在这样模型快速更迭的市场中,要怎么才能把LLM模型的商业价值最大化?

唯快不破的模型业态

最近发起讨论的是X.ai创始成员之一的Toby Pohlen。他认为如果模型以指数级速度改进,那么训练模型的价值也会以指数级速度折旧。这也导致人们需要赶在模型更迭前就迅速采取行动获取商业价值,一旦模型产生更新,上一代模型就基本一文不值了。

贾扬清一吐为快:要想赚钱,AI模型到底该大该小?

Toby的这番言论深得老板Elon Musk之心,大笔一挥打了一个“100分”。

贾扬清一吐为快:要想赚钱,AI模型到底该大该小?

贾扬清也参与到了这场讨论中来,他用感恩节火鸡做了一个有趣的比喻。他提出,售卖模型就像是感恩节火鸡促销,必须在感恩节前夕抓紧时间售卖,避免在感恩节到来后的贬值。新模型的技术更新就是一个又一个感恩节,只有销售得更快才能赚到更多的利润。

贾扬清一吐为快:要想赚钱,AI模型到底该大该小?

(emmm...如果对火鸡不好了解,换成中秋节前抢月饼的故事大家或许应该容易理解一些?)

评论区也有不少人表达了对此观点的赞同。

有人说只要不断地开发新产品和迭代新模型,就能从中持续获得商业价值。

贾扬清一吐为快:要想赚钱,AI模型到底该大该小?

还有人说,模型改进的频率将直接决定模型本身的商业价值。

贾扬清一吐为快:要想赚钱,AI模型到底该大该小?

但是,模型的商业价值由什么决定,又该如何实现?

模型发展在走CNN老路吗?

模型必须做小,用起来才顺手。

比起大型模型,小型模型成本低应用便利,更能收获商业市场的青睐。贾扬清就发现,行业趋势在于研发和使用尺寸更小性能强大的模型,人们也更愿意把规模参数在7B-70B之间的中小型模型作为商业使用的选择。

贾扬清一吐为快:要想赚钱,AI模型到底该大该小?

作为前大模型时代的亲历者,贾扬清在当下LLM模型市场上嗅到了熟悉的味道,先变大再变小变高效,这和CNN时期的模型发展简直一模一样。

贾扬清一吐为快:要想赚钱,AI模型到底该大该小?

贾扬清还对CNN的发展历程做了一个简单的介绍。

首先是2012年,AlexNet开启了模型大小增长的序幕。2014年的VGGNet就是一个规模较大的高性能模型。

到了2015年,模型尺寸开始缩小。GoogleNet 将模型大小从GB降至MB,缩小了100倍,还同时保持了良好的性能。同年面世的SqueezeNet也遵循了追求更小尺寸的趋势。

在此之后,模型发展的重点转移到了维持平衡。比如如 ResNet(2015)、ResNeXT(2016)等模型都保持了一个适中的规模,注重计算效率。

贾扬清还介绍了CNN的一个有趣的应用,Google的MobileNet(2017),占用空间小性能优越,还具有出色的特征嵌入泛化。

最后,贾扬清引用了Ghimire 等人在《高效卷积神经网络和硬件加速调查》里的一张图:

贾扬清一吐为快:要想赚钱,AI模型到底该大该小?

他还进一步发问,LLM模型未来会遵循和CNN一样的发展趋势吗?

大型模型的盈利思考

不过贾扬清也补充道,虽然行业趋势是模型小型化,但并不意味着号召大家放弃尺寸更大的模型。

贾扬清一吐为快:要想赚钱,AI模型到底该大该小?

但这随之而来的是另一个问题:大型模型的成本会更高。

此前也有人提出质疑,对大型模型服务商的运营成本和营运收益做了简单的计算,每天8张H100显卡运营节点的成本约为1000美元,每天可以提供2600万token的服务,但按Llama 405B每一百万token 3美元的价格,怎么算都是亏本的,无法盈利的大型模型不会被市场抛弃吗?

贾扬清一吐为快:要想赚钱,AI模型到底该大该小?

贾扬清表示,哎你说这个我就不困了,我熟我来说:)

贾扬清一吐为快:要想赚钱,AI模型到底该大该小?

贾扬清认为,虽然每个请求大约每秒输出30个token,但通过批量处理(同时处理多个请求)可以显著提高总吞吐量,可以达到比单个请求高出10倍或更高的吞吐量。

同时他还指出,每秒大约30个token指的是输出token,大模型对于输入token的处理速度更快,这也增加了处理的总token数,大模型通常对输入和输出分别计费,也正是这个道理。

在后续的另一个回复,贾扬清做了更详细的量化计算:

贾扬清一吐为快:要想赚钱,AI模型到底该大该小?

批量输出速度:单并发405b推理通常有每秒30个token的输出速度。合理的并发可以使总吞吐量提高10倍,达到每秒300个token的输出吞吐量。

输入token:输入token也被计费,通常输入token的数量远大于输出token。一个常见的聊天机器人应用可能有2048个输入token和128个输出token。假设输入输出token比率为10:1,那么每秒300个输出token的处理量相当于每秒3000个输入token。

价格:每天总共处理285,120,000个token,按当前Lepton价格每百万token2.8美元计算,收入为798.34美元。

机器成本:以lambda按需价格为基准,每张H100卡每小时3.49美元,8张H100卡一天的成本为670.08美元。

收入798.34美元,成本670.08美元,因此通过整合多种技术方法,在合理流量下(像Lepton这样的大模型技术服务商)是可能盈利的。

当然,这只是一个简单的推算,实际的盈利还会受到流量稳定性、计费方式、按需使用GPU的机器成本控制、解码、提示缓存以及其他因素的影响。

但某种程度上说,类似深度学习时代对CNN的不断优化,在大模型时代,也需要技术人员对于模型进行种种优化,来保证性能提高的同时不断降低成本,这正是贾扬清看好的创业路线。

One  more thing

我们不妨再多讨论一下,对于贾扬清这样的AI Infra创业者,模型大小的潮流变化对他的商业模式有什么影响?

这个问题,要分不同情况分析。

如果模型参数量越大,提供模型服务的门槛越高(参考Llama 405B),其客单价自然也就越大;

另一方面,由于很多小模型实际是在大模型的基础上蒸馏而得到,模型小了,所需的计算资源并没有等幅度减少;

由于较小的模型更容易部署在不同的设备和平台上,这可能会带来应用场景的增加,虽然客单价可能降低,但在需求数量上的增加反而可能使得总收入增加;

对于贾扬清来说,META的开源路线使得贾扬清的服务对象扩大,因此开源对他来说更有利。

看来不管未来模型规模怎么不变化,贾扬清都有机会凭借技术升级稳坐钓鱼台。这有点像之前的中国股市,不管什么消息,都是“利好茅台”啊。

这恐怕就是贾扬清最近在推特上为什么这么活跃发表看法的原因?你看好贾扬清这种AI Infra的创业路线吗?雷峰网雷峰网(公众号:雷峰网)


雷峰网原创文章,未经授权禁止转载。详情见转载须知。

贾扬清一吐为快:要想赚钱,AI模型到底该大该小?

阅读全文
相关推荐

启明创投发布2024生成式AI十大展望

启明创投发布2024生成式AI十大展望
7月6日,由启明创投主办的2024世界人工智能大会WAIC)“启明创投·创业与投资论坛——超级模型、超级应用、超级机遇”在上海世博中心红厅成功举办。大语言模型、多模态模型、具身智能和生成式AI应用领域 ...

AI 手术平台 Caresyntax 获 1.8 亿美元融资;智元发布 5 款商用人形机器人,开发者还能“0元购”丨AI情报局

AI 手术平台 Caresyntax 获 1.8 亿美元融资;智元发布 5 款商用人形机器人,开发者还能“0元购”丨AI情报局
今日融资快报AI手术平台Caresyntax获1.8亿美元C+轮融资caresyntax致力于促进特定医疗环境如外科手术、介入放射检查及产科)更加智能和安全。其推出的解决方案利用物联网、数据分析和人工 ...

100天后,阶跃星辰交出了第二份答卷

100天后,阶跃星辰交出了第二份答卷
今年 3 月,「借着」 2024 全球开发者先锋大会的场子,「国内最后一家通用大模型公司」——阶跃星辰发布了 Step 系列通用大模型,包括 Step-1 千亿参数语言大模型、Step-1V 千亿参数 ...

AMD 6.65 亿美元收购 Silo AI;Genie 击败 Devin、GPT

AMD 6.65 亿美元收购 Silo AI;Genie 击败 Devin、GPT
今日融资快报AMD 收购欧洲第一私人AI实验室 Silo AI 交易价值约6.65亿美元AMD 宣布,已经正式完成了对Silo AI的收购,后者是欧洲规模最大的私人人工智能实验室之一。此次交易的价值约 ...

CNCC 12月8日全线上召开,逾万注册参会者在线聚,直播人气近200万

CNCC 12月8日全线上召开,逾万注册参会者在线聚,直播人气近200万
12月8-10日,CNCC首次以全线上方式在线召开。大会邀请了超过750位国内外计算机领域知名专家、企业家到会演讲,大会设14个特邀报告、 3场大会论坛、118场技术论坛。12月8日,CNCC首次以全 ...

李飞飞团队再造黑科技!机器人自学家务样样精通,开源代码了解一下?

李飞飞团队再造黑科技!机器人自学家务样样精通,开源代码了解一下?
倒茶、叠衣服、整理书籍、丢垃圾,现在的家务机器人干活真是越来越熟练了。不过,也不是每个家务机器人都能做到像动图里那么流畅的。熟练家务的背后,是李飞飞团队琢磨出来的一种新办法。他们把任务动作拆解后标记出 ...

Groq 获 6.4 亿美元融资;传 ResNet 作者张祥雨加盟阶跃星辰;OpenAI 研发 ChatGPT 文本水印丨AI情报局

Groq 获 6.4 亿美元融资;传 ResNet 作者张祥雨加盟阶跃星辰;OpenAI 研发 ChatGPT 文本水印丨AI情报局
今日融资快报人工智能芯片初创公司Groq获6.4亿美元融资,挑战英伟达Groq是一家开发芯片以比传统处理器更快地运行生成式 AI 模型的初创公司,该公司周一表示,已在由Blackrock领投的新一轮融 ...

00后创业胡雅婷:相比连续创业者,年轻人的优势是做“新模态”。

00后创业胡雅婷:相比连续创业者,年轻人的优势是做“新模态”。
作者:马蕊蕾编辑:陈彩娴全国信息学奥林匹克竞赛冬令营金牌,签约北京大学计算机系,24岁的胡雅婷,和她的清北团队即将上线4D模型,建造属于他们的4D世界。“不能和成熟的创业者竞争偏传统或较成熟的AI领域 ...

对话汇智智能:AI 智能体时代,数字营销范式在革新

对话汇智智能:AI 智能体时代,数字营销范式在革新
作者丨孙溥茜编辑丨陈彩娴大模型浪潮正在以它的方式蚕食着传统数字营销,改变都发生在你我生活的边边角角地方。2023年初,电竞被正式列为奥运会电子竞技项目;随着直播带货的火爆,相比淘宝,抖音电商后来居上。 ...

WAIC 最具技术想象力成果发布:新架构面壁小钢炮又一次验证并加速了面壁定律

WAIC 最具技术想象力成果发布:新架构面壁小钢炮又一次验证并加速了面壁定律
2020 年,1750 亿参数规模的 GPT-3 问世。彼时,完整训练 1750 亿参数的模型需要 3.14E11TFLOPS)的每秒浮点运算量。如果使用英伟达 80GB A100 GPU16位浮点算 ...

AI文档搜索公司Hebbia完成1.3亿美元融资,a16z领投;奥特曼成立AI健康公司;大模型最强架构TTT问世丨AI情报局

AI文档搜索公司Hebbia完成1.3亿美元融资,a16z领投;奥特曼成立AI健康公司;大模型最强架构TTT问世丨AI情报局
融资快报Hebbia 完成 1.3 亿美元融资:位于纽约的 AI 初创公司 Hebbia 宣布完成新一轮 1.3 亿美元融资,由 a16z 领投,Index Ventures、Google Ventu ...

一文总结马斯克最新八小时访谈:Neuralink、xAI及人类未来

一文总结马斯克最新八小时访谈:Neuralink、xAI及人类未来
上周六,知名科技博客Lex Fridman邀请到了埃隆·马斯克Elon Musk )以及Neuralink团队的其他成员进行了深入讨论,时间达到了惊人的八个半个小时,谈话内容涉及 Neuralink扩 ...
返回顶部