该说不说,都 2025 年了,我问 AI 一个问题,体验却常常两极分化。简单的事,它秒回,但答得跟没答一样。复杂的事,让它深度思考,它又要琢磨 30 秒以上。而每一次回答,AI 都在不断「燃烧」token。对企业来说,token 消耗量直接等于成本。当模型开启深度思考时,效果确实能提升一大截,可延迟高了,token 烧得更猛了,成本也就跟着水涨船高。这是整个行业的痛点。尤其是 AI 应用越来越多,token 消耗也在暴涨。以豆包大模型为例,到 9 月底的日均 token 调用量已经突破 30 万亿+,比 5 月底暴涨超 80%。而这,还只是市场的一部分。当 AI 需求以这样的速度增长时,要么忍着用效果差的轻量模型省钱,要么咬牙烧钱用顶级模型保效果。问题也就在摆在眼前——要效果,还是要成本?10 月 16 日,火山引擎在武汉的 FORCE LINK AI 创新巡展上,用四款新品告诉你:小孩子才做选择。豆包大模型 1.6 原生支持 4 档思考长度调节,豆包 1.6 lite 腰斩成本还能提升效果,还有豆包语音合成模型 2.0 和声音复刻模型 2.0。根据 IDC 报告,2025 年上半年中国公有云大模型服务市场里,火山引擎拿下 49.2% 的份额,稳坐第一。什么概念?每两个用云端大模型的企业,就有一个在用火山引擎。今天发布会上提到,深度思考模式虽然能让效果提升 31%,但因为延迟、成本
...
继续阅读