
文 蓝鲨财经社 魏强
6月11日,FORCE2025原动力大会·春在北京举行,会上发布了豆包大模型1.6、视频生成模型Seedance 1.0 pro等新模型,并升级了Agent开发平台等AI云原生服务。
会后,火山引擎总裁谭待接受了媒体的群访,以下为访谈内容,蓝鲨财经社根据速记做整理,有删减:
问:这个月,国内外好多企业都发了企业级Agent的产品,火山发的产品和其他企业相比有什么特点?
谭待:从PC到移动到AI,最重要就是主体。AI时代的主体就是Agents。Agent能够自主规划、反思、执行任务。围绕着Agent,首先是开发范式发生了变化,以前各种各样的架构本质上都是以程序员为核心更好地去理解、设计业务。现在Agents很多集成步骤是通过模型策略展开的,模型跟工具、环境交互,这需要更好的模型和Agent平台。基础架构也一样。数据以前是For BI,现在For AI,多模态数据是很重要的点。安全也一样。今天,我们发了两个新的安全产品,怎么解决大模型防火墙,解决模型投毒被攻击,以及怎么解决端加密,解决安全隐私的问题,计算架构也一样。
这一系列的东西我们把它叫做AI云原生。这也是火山最早在业界提出来的。我们希望通过从开发范式到基础设施到数据到安全的完整AI原生去帮助企业做好这个事情。今天模型上我们带来了更强大、性价比更高的豆包1.6。
做好Agent,最重要的是底层的模型一定是一个多模态深度思考的模型。如果不是,Agent能做出来的事情很有限,很初级。对于Agent而言,它的Token消耗量很大。AI大模型最早的应用就是聊天,一个人跟模型聊一个小时就是20多万的Token,但如果让Agent做一个任务,它要处理特别复杂的事情,一个任务可能就是20万Token。怎么把Token(成本)降低也很重要。我们创新地做了区间定价,能集中地把企业用得最多的区间的成本降低到63%,相当于只需要以前的1/3。
我们的方舟还发了新功能:Prompt Pilot 、Coding Agent、Trip,知识库,强化学习,多模态数据湖、安全等一系列方案。最后不仅是一个模型好,也需要去在安全、数据、平台上去系统解决。
我们有一个优势就是豆包APP用户非常多,过程中实践和总结出很多了做好这种复杂Agent的最佳实践,不断通过火山引擎对外提供。
Token降价得到行业认可的诀窍是心诚
问:火山为什么想在Token定价上做创新?能得到行业认可的诀窍是什么?
谭待:心诚。你真心想做这件事情。你不是把不好的模型免费,赚一个吆喝。我们心里想的是,要让更多人运用AI创造价值。怎么做?就三件事:1、把模型做好;2、把成本做低;3、把应用性、落地性各种工具做好。这三个点从2023年就开始说,没有变过,未来也会一直这样。
但做好这件事情关键在于不断的技术创新。2B的商业模式跟2C不一样,不能羊毛出在猪身上。一开始你就要构建一个正毛利的商业模式才能持续。只能不断通过技术的创新,包括模型结构创新,模型效果优化,工程、定价的配合。日常的工作中,不管是我还是我们团队,大家都在想这个事情——怎么把成本做好,把能力做好,把性价比提高。每天看到Token在增长,开发者在群里反馈了很多好的问题,我们帮他们解决了,大家都很开心。
问:Tokens(调用成本)降到原来的1/3是不是技术在成本上的极限?
谭待:技术、软件和硬件在不断进步,肯定持续能够优化成本。我们宗旨是每当我们做到了一定程度后,尽最大可能把技术红利释放出来,让业界所有的开发者和企业受惠,它们AI的应用也会发展得更快。去年我们做豆包1.0,在模型结构和工程上做了大量优化,当时把价格降低99%。很多公司跟随了我们的政策,中国的大模型就起来了。今年做更复杂的Agent,用到深度思考,多模态模型,成本有点高。
我们的三个原则:
第一、同一个尺寸,同一个参数的模型,开不开启深度思考,做不做图文、图像理解,对成本没影响。以前大家都是按模型能力定价,深度思考贵一些,图文理解贵一些,non thinking(音)便宜一点,这次我们做了统一。
第二、我们看到上下文窗口,它是一个累加成本的递增,但大部分企业实际上它的上下文窗口,特别是输入是有一个分布区间的。如果在调度上能把不同长度的输入输出通过PD分离,再通过集中调度(并行计算如果长度不统一的话会互相思索),把这些架构做好,实际上可以把每一个区间的成本定向优化。绝大部分企业用的32K的范围内可以做大幅优化。这次我们技术上做了创新,定价上也做了一个区间定价。对于企业来说,再去用Token,在常规的规模里去做推理,成本大幅度降低,降到63%,只需要以前1/3的成本就可以拿到更好的模型,而且是All in one。
第三、我们也对那些简单的non-thinking做了一个特惠区,0.8、2块这样的低价它仍然存在。
这次我们考虑了方方面面,希望跟去年一样,再一次促进Agent AI的普及。
AI云原生哪些技术变得更重要了?
问:豆包1.6比1.5升级点在哪里?
谭待:我觉得1.6比1.5还是有很多提升的地方。从评测的角度来看,在GPQA、AMI、Multichallenge上,functioncall指令遵循很重要,这有很大提升。Coding上也有很大提升。视觉理解,1.5还有很多对应的VIL模型、LL模型和Thinking模型,1.6我们把它全部合在了一起。但我们有一个增强版的1.6Thinking,这样用起来更便捷,成本更低,在Coding、在逻辑推理上的能力更好,更适合Agent场景使用。我们应该是国内首个在深度思考支持256K窗口的(大模型)。做复杂任务的时候,特别是处理图像和GUI操作的或者包括Coding,窗口很容易超过128K。
问:现在很多(技术)核心出发点变成AI,跟过去的云计算比,哪些技术变得重要了,哪些变得不重要了?
谭待:很多东西有延续性。CPU重不重要?还是很重要,因为大部分程序还是基于老的开发方式做的,怎么把这一块规模化成本做低也很重要。数据库也很重要,Agent其实就是数据库变成了更拟人、更好的形式跟人交互。过去为Web、APP、云原生做的那些东西已经成熟了,很难有什么创新。未来AI云原生,从模型到Agent开发工具到多模态数据湖到AI安全,不断有新的东西出来。不仅是我们,可能整个行业,未来都会围绕AI云原生不断做创新,大家可以看到很多眼花缭乱的新产品出来。
问:云对于模型的性能提高和成本降低起到了越来越重要的作用?
谭待:我觉得云本来就是很重要的事情,因为它是数字经济的底座,AI本身又是能够进一步扩大经济和数字经济的增长,所以云在里面发挥作用更大。对于大模型来说,不仅训练成本高,推理成本更高,推理有波峰波谷,通过云可以更好去适配更多的硬件,把波峰波谷通过混合调度打平,成本降低。
AI云原生商业模式的变化
问:AI云原生跟云原生最本质的区别是什么?
谭待: 差别是主体变了,变成了Agent。比如订酒店,如果是一个传统的APP,比如我想去看有没有浴缸,我得自己去翻图片;如果大家有小孩带出去,经常要跟酒店联系加床,网站上没有可选的,你只能打电话。做成Agent之后,它可以主动帮你看图片,看里面有没有浴缸,能帮你全网去搜大家的评论,能帮你主动跟前台打电话。这就是传统软件做不了的事情。
云原生为什么而设计?移动互联网兴起,用户触点、时长大幅度增长,业务弹性要求更高,发布节奏要求更快。云原生为了APP的最佳实践而设计,它的最佳实践是弹性扩缩容、容器化、DevOps、微服务等等。企业的管理软件也是互联网化、弹性化。
现在的AI云原生就应该为Agent去设计新的技术栈。AI主体要什么,它要更强的模型、更好的Prompt Pilot,强化解决更特定的任务问题,所以我们有VIL模型。Agent要处理的数据不是结构化和非结构化的数据,它要处理的是各种更原始的多模态数据。以后Agent和Agent之间会互通,互联,这里面Agent和Agent防护、安全都非常重要。当你意识到主体发生变化之后你就知道我要为新的主体设计技术栈。这就是AI云原生。这不是倒装据主谓的关系,而是需要你以什么东西为本质思考。
问:云原生的商业模式是IaaS卖资源,PaaS、IaaS卖高价值的软件,AI云原生的商业模式会发生哪些变化?
谭待:AI云原生其实数据和安全有一些也属于SaaS,属于PaaS,IaaS。SaaS、PaaS、IaaS更多从技术形态来看,有时候也很混杂,像Model and Agent是AP,它到底是SaaS还是PaaS?因为它的算力消耗也很密集。
这是为什么我们没有从这个角度去分,而是分成大家更好理解的比如说我的大数据上要做什么事情,在安全上要做什么事情。我在计算上做什么事情。比如说安全我们有两个产品,AICC密态计算是一个PaaS产品,通过它的PaaS能做好端侧的加密,做好知识库的加密,做好密钥的管理。它是一个PaaS产品,也可以执行模型的加密计算,大模型防火墙可能是PaaS也可能是SaaS,因为只需要一些配置就可以保护模型的推理不受到攻击,不被投毒。
从业务视角大家更好理解,到底AI云原生需要在每个层面做什么事情,可以帮解决什么问题。
问:未来商业模式上会有变化吗?
谭待:未来IaaS、PaaS(的商业模式)没有变化,但像SaaS层,以前的SaaS还是一个被动的工具,现在有Agent后能主动帮你做很多事情。比如它能直接帮你写一个程序。给它付费的时候,不是说看它输出了多少代码,而是它帮你做成了什么事情。这有一个很大的商业模式的变化。但我觉得现在也不用过多关注,因为都还在早期。
大模型给火山引擎带来的业绩增长最快
问:基于对今年市场和需求的判断,火山引擎收入增长和客户拓展上有哪些目标?
谭待:我们目标还是很激进的。因为AI的需求很旺盛,困惑很多——即使有好的模型怎么用起来、怎么用得好也是一个问题。这个阶段最重要的是把产品做好做扎实,把成本做低,和互联网、汽车等标杆客户把方案做好,让大家看到更好的示范,自然而然业务目标就可以完成。
问:火山引擎营收中由大模型带来的增长是?今年会重点攻坚哪些行业客户?
谭待:大模型带来的业绩增长是所有产品中最快的,毛利也是最好的之一。各行各业都在加速拥抱大模型,包括数字原生的互联网,汽车、消费电子,零售、金融、能源、航司等。一般来说,数字化基础越好AI转型越快。AI时代诞生了很多优秀的初创公司,它们有一个特点,人都很少,可能10-20个人,但是功能产生得很快,每天Token消耗很多。火山的优势就是软件可以适配各种各样的芯片,不仅我们这么做,给客户也提供了灵活的方案。
问:去年火山自建算力中心提速,如何平衡初期投入与长期成本的优势?
谭待:建数据中心有三种模式:租用、自建、合作。我们以前自建比较少,现在做得多一些,但整体比例在业界也属于正常水平。成本平衡不是一个很难的事情,因为所有的建设都是算在成本里。火山一直都是保持毛利OK的情况下去做规模化。