出品| 搜狐科技
作者|张莹
编辑|杨锦
6月11日,火山引擎总裁谭待在火山引擎Force原动力大会上表示,技术主体经历了三个时代变化,AI时代会推动开发范式与技术架构全面升级。
谭待称:“PC时代主体是Web,移动时代是APP,AI时代则是Agent。Agent能够自主感知、规划和反思,完成复杂任务。从被动工具转变为主动执行者。豆包大模型和AI云原生将持续迭代,助力企业构建和大规模应用Agent。”
在会后的群访环节中,谭待进一步表示,“做好Agent最重要的是,底层模型一定是一个多模态深度思考模型。如果不是基于多模态深度思考模型,Agent能做出来的事情是很有限,很初级的。豆包1.6就把这件事情做好了。”
会上,字节跳动发布豆包大模型1.6、视频生成模型Seedance 1.0 pro等新模型,并升级了Agent开发平台等AI云原生服务,同时公布了豆包大模型1.6的定价方式——按“输入长度”区间定价,深度思考、多模态能力与基础语言模型统一价格。
在企业使用量最大的0-32K输入区间,豆包1.6的输入价格为0.8元/百万tokens、输出8元/百万tokens,综合成本为豆包1.5深度思考模型或DeepSeek R1的三分之一。
此次大会,字节跳动CEO梁汝波通过视频形式发表致辞。他表示:“字节做优秀的科技公司还不够,要做优秀的创新科技公司。优秀科技公司是能利用先进技术的公司,而优秀的创新科技公司是能够探索和发明新技术的公司,只有创新科技公司才能在AI时代保持竞争力。”
豆包大模型1.6发布,“可以期待2.0”
豆包1.6系列当前由三个模型组成,分别是doubao-seed-1.6;doubao-seed-1.6-thinking和doubao-seed-1.6-flash。
其中,doubao-seed-1.6是all-in-one的综合模型,支持深度思考,多模态理解,图形界面操作等多项能力。在深度思考方面,支持多种模式,开发者可以选择关闭深度思考、开启深度思考和自适应思考三种方式。doubao-seed-1.6也是国内首个支持256K上下文的思考模型。
doubao-seed-1.6-thinking,则是1.6系列在深度思考方面的强化版本,doubao-seed-1.6-flash,则是1.6系列的极速版本。
对于256K是否太短,谭待表示,“之前只有128,首先要看看到了256之后大家能不能用起来,而且确实可以解决一些问题。但是我觉得肯定以后模型的窗口会再进一步变大。关键是变大过程中你保证性能不要下降,只是为了做大窗口的话意义不大。”
谭待提到,有媒体针对高考全国新一卷数学单科做了测评,豆包的成绩是144分,全国第一。而在高考前,豆包针对海淀区模拟全卷进行了测评,豆包1.6相对去年的表现,理科成绩显著提升了154分,达到706分;文科提升了90分,达到702分。
据谭待介绍,doubao 1.6全系列,都原生支持多模态思考能力,让模型可以理解和处理真实世界的问题。演示案例显示,豆包1.6可自动操作浏览器完成酒店预定,识别购物小票并整理成Excel表格等任务。
谭待在会后的群访中提到,火山引擎希望一年至少可以出一个大版本,可以期待豆包2.0。
豆包视频生成模型Seedance 1.0 pro也在火山引擎Force大会亮相。该模型每千 tokens为0.015元,每生成一条5秒的1080P视频只需3.67元,为行业最低。
此外,火山引擎AI云原生全栈服务升级,发布了火山引擎MCP服务、PromptPilot 智能提示工具、AI知识管理系统、veRL强化学习框架等产品,并推出多模态数据湖、AICC私密计算、大模型应用防火墙,以及一系列AI Infra套件。
谭待曾提到,MCP协议类似于互联网早期的HTML 和 HTTP 协议,如果能做到统一协议,大家的应用开发就会更快,模型调用也会更智能。
对于火山引擎MCP服务的发布,是否意味着火山引擎在争夺AI操作系统的话语权,谭待认为不存在“争夺”,标准是公开的,大家都一样,一个MCP服务出来也不是为了自己独占,是希望让更多人用。既然是开放的体系,就不存在争夺谁第一。
谭待强调,差异化在于云服务的托管能力、模型调用MCP服务的能力。
数据显示,豆包大模型日均tokens使用量超过16.4万亿,较去年5月首次发布时增长137倍。
上下文长度影响模型成本,豆包大模型1.6“区间定价”
谭待表示,深度思考、多模态和工具调用等模型能力提升,是构建Agent的关键要素。同时,由于Agent每次执行任务都会消耗大量tokens,模型使用成本也要降下来,才能推动Agent的规模化应用。
“我们知道大模型是按tokens来收费。市面上有不同类型的模型,支持深度思考的,不支持深度思考的,支持多模态的等等,但实际上对于同结构同参数的模型而言,对成本真正影响的是上下文长度,而不是是否开启了思考和多模态功能。”
谭待还提到,其次,上下文长度对成本的影响是累加的,上下文越长,或者简单说输入越长,每一个输出的成本就会递增累加。最后,模型输入输出长度的分布是有一定规律的。当前,大部分的调用,其输入范围都在32K以内。
基于此,豆包1.6的定价方式是按“输入长度”区间定价,深度思考、多模态能力与基础语言模型统一价格。
在企业使用量最大的0-32K输入区间,豆包1.6的输入价格为0.8元/百万tokens、输出8元/百万tokens,综合成本为豆包1.5深度思考模型或DeepSeek R1的三分之一。
在输入区间32K-128K的范围内,豆包1.6的价格是输入1.2元每百万tokens,输出16元每百万tokens;在输入区间128K-256K的范围内,豆包1.6的价格是输入2.4元,输出24元。
此外,对于输入32K,输出200以内的non-thinking模型的需求,豆包1.6价格将进一步降低到每百万tokens输入0.8元,输出2元。
对于今年火山引擎在收入增长和客户拓展上的目标,谭待直言,“我们目标很激进”。
谭待表示,大家对于AI的需求是很旺盛的,而且困惑很多。当前的困惑不是说模型好不好,即使有好的模型怎么用得好也是一个问题。谭待认为,现阶段最重要的是把自己的产品做好做扎实,把成本做低,自然而然业务目标就可以完成,因为需求是明确清晰而庞大的。