打开APP
详谈三个大模型认知误区,李彦宏内部讲话曝光
财经早餐
2024-09-12 06:51:37

9月11日,百度创始人、董事长兼CEO李彦宏在近日和员工交流中,详谈了三个大模型认知误区,涵盖大模型竞争、开源模型效率、智能体趋势等热点话题。

李彦宏认为,未来大模型之间的差距可能会越来越大。他进一步解释,大模型的天花板很高,现在距离理想情况还相差非常远,所以模型要不断快速迭代、更新和升级;需要几年、十几年如一日地投入,不断满足用户需求,降本增效。

榜单不代表大模型实力

对于行业“大模型之间的能力已经没有壁垒”的说法,李彦宏坦言,“每次新模型发布,都要和GPT-4o做比较,说我的得分已经跟它差不多了,甚至某些单项上得分已经超过它了,但这并不表明和最先进的模型就没有差距。”

他解释说,很多模型为了证明自己,会在发布之后去打榜,会去猜测试题目、答题技巧。从榜单看,或许模型的能力已经很接近了,但到实际应用中,还是有明显的差距。

李彦宏表示,模型之间的差距是多维度的,一是能力方面,即理解能力、生成能力、逻辑推理能力、记忆能力等基本能力上的差距;二是成本方面,有些模型虽能达到同样效果,但成本高、推理速度慢,还是不如先进模型。

李彦宏在内部讲话中表示,真正要衡量大模型的能力,应该是在具体的应用场景中,看是否能满足用户需求、产生价值增益,这才是最值得被在乎的。

李彦宏还认为,每个公司都处在完全竞争的市场环境中,不管做什么都会有很多竞争对手,如果能永远保证领先对手12~18个月,那是天下无敌的。“不要觉得12~18个月是很短的时间,哪怕能保证永远领先竞争对手6个月,那就赢了。”

应客观看待开源模型的效率问题

李彦宏进一步阐释了外界对于开源大模型的认知误区。“在大模型时代之前,大家习惯了开源意味着免费、意味着成本低。”他解释说,比如开源的Linux,因为已经有了电脑,所以使用Linux是免费的。但这些在大模型时代不成立,大模型推理是很贵的,开源模型也不会送算力,还得自己买设备,无法实现算力的高效利用。

“效率上开源模型是不行的。”他表示,“ 闭源模型准确讲应该叫商业模型,是无数用户分摊研发成本、分摊推理用的机器资源和GPU。GPU的使用效率是最高的,百度文心大模型3.5、4.0的GPU使用率都达到了90%多。”

李彦宏认为,在教学科研等领域,开源模型是有价值的;但在商业领域,当用户追求的是效率、效果和最低成本时,开源模型就没有了优势。

“文心大模型每天调用量超过6亿次,每天生成的token数超过万亿个,哪个开源模型可以说自己一天调用量是多少、生成了多少token?没有人用的话,成本怎么分担?推理成本怎么能够跟商业化模型相比呢?”李彦宏问道。

智能体还不是行业共识

谈及大模型应用的发展阶段,李彦宏认为首先出现的是Copilot,对人进行辅助;接下来是Agent智能体,有一定的自主性,能自主使用工具、反思、自我进化;这种自动化程度再发展,就会变成AI Worker,能独立完成各方面的工作。

不过,李彦宏坦言,“智能体是大模型最重要的发展方向”这个判断其实是一个非共识。此前百度Create大会发布了AgentBuilder、AppBuilder、ModelBuilder三个产品,其中AgentBuilder和AppBuilder都是讲智能体的,但目前像百度这样把智能体作为大模型最重要的战略、最重要的发展方向的公司并不多。为什么百度这么强调智能体?李彦宏也给出了答案,即智能体的门槛低。“我们去年说要卷应用,大家都去做应用,其实很多人还是不知道该怎么做,大家不知道怎么从模型变成应用”。

对此,李彦宏认为智能体提供了一个非常直接、非常高效、非常简单的方式,在模型之上构建智能体是相当方便的,“这也是为什么如今每周都有上万个新的智能体在文心平台上被创造出来。智能体的日均分发次数已快速增长至800万次”。

李彦宏还表示,在智能体方面,公司已经看到了趋势,也有比较好的先决条件,即除了模型本身的能力比较强大之外,还有很好的分发通路。因此他们也是最能帮助这些开发者分发智能体的公司。

综合自中国基金报、上海证券报

免责声明:本文由顶端号作者上传发布,仅代表作者观点,顶端新闻仅提供信息发布平台。如文章内容涉及侵权或其他问题,请30日内与本平台联系,反映情况属实我们将第一时间删除。
热评
暂无评论,去APP抢占沙发吧