图片来源:界面图库

专访面壁智能李大海:任何业务都是商业效率的比拼,大模型没有离开这个规律

界面新闻记者 | 伍洋宇

界面新闻编辑 | 文姝琪

当苹果AI系统Apple Intelligence发布的时候,相比于它对这家科技巨头的战略意义,以及能够为新iPhone带来的销售动力,还有一个公司之外的重要影响值得关注和讨论,它可能关乎一个行业的兴衰——那就是iPhone 16系列是否真的为端侧大模型的落地带来了转机?

在大语言模型走上技术风口之后,以OpenAI为代表的云端大模型占据了行业几乎全部注意力,这也使得国内的大模型舆论场不断将聚光灯打向“六小虎”(指智谱AI、百川智能、月之暗面、Minimax、零一万物、阶跃星辰)这样的公司。

它们大都由知名创业者或技术大牛带队,吸纳了市场上更大比例融资,产品和技术水平基本上定义了中国大模型创业之一梯队的表现,是这片领域的主角。

但就是在这样一个已经形成明星效应的格局中,一家不走云端大模型路线、主攻小尺寸端侧模型的公司面壁智能,也在这个舞台上占有一席之地,从行业曝光率和讨论度来讲并不逊色于前者。这在强调“大力出奇迹”的技术领域,并不是一件容易发生的事。

面壁智能走的是一条什么样的路?

对于云端大模型,Scaling Law(规模法则)曾是这个领域的主流技术信仰,它依靠不断拉升模型参数、训练算力和数据规模以达成更高模型智能水平。在这条技术路径下,参数级别越大的模型,越有可能在AGI(通用人工智能)征途上率先胜出。

面壁智能的目标同样是AGI,但押注参数级别更小的端侧大模型。公司为这条路径总结了一个核心概念为“知识密度”,指的是“模型能力与(参与计算的)模型参数之比”。面壁智能认为,大模型的知识密度平均每8个月提升一倍。

在这个概念视角下,公司关注的是让模型如何一边降低参数一边提升性能,以最小的资源释放更大的能量,尽管性能提升进程会相对缓慢,但最终能够在存储、算力等各方面消耗都远不及云端的端侧设备,为其提供不逊色于云端的端侧智能。

商业化上,这家公司目前有面向多个垂直领域的AI Agent(智能体)。但背后更大的机会,或许是其落地端侧设备之后,由手机、PC、汽车、机器人等智能终端核心赛道带来的商业化规模性爆发。

这个目标目前已小有进展。9月,面壁智能陆续宣布了两起合作,分别是为梧桐汽车提供芯算一体AI座舱方案的端侧大模型服务,以及与长城汽车战略合作推进端侧大模型在汽车领域的场景应用突破。

但从真正的产品效果和用户体验来讲,端侧模型的爆发仍有自己的期限要等。

面壁智能CEO李大海曾表示,公司将在2026年底之前发布GPT-4水平的端侧模型。这个代表“本科生”水平的端侧模型,将有可能带来更多端侧AI应用的想象力。

面壁智能CEO李大海(图片来源:受访者供)

在加入面壁智能之前,李大海曾是知乎CTO。他在与面壁智能核心成员沟通时,问了每个人同一个问题:“你们相不相信AGI?面壁智能是不是要做AGI?”得到所有人的确定答复之后,他才做出决定。

时至今日,李大海表示自己对于AGI的信念从未动摇。“我问大家的时候,我的预期也是7到10年。”他说,“我们没有觉得这个事情是下一年,下一刻,从来没有这样觉得过。”他指出端侧大模型的GPT-4时刻可能是一个能够跟环境自主互动的机器人,但这在三年内也不是一个清晰可见的目标。

对于端侧大模型与云端大模型的竞争差异,李大海表示,任何一个业务最终都应该是商业效率的比拼,大语言模型也没有离开这个规律。这对应的是,包括资本等环境因素在内,行业的耐心是有限的。

“所以不管是端侧模型还是云端模型,都需要尽快去把商业闭环先做起来,让大家看到预期通路是通的,这是最重要的事情。”李大海说。

以下为界面新闻对李大海的采访实录,略作编辑:

1、iPhone 16用不了ChatGPT会有差异,但国内大模型一定做得更好

界面新闻:你们前不久发布了4B大小的MiniCPM 3.0,基本对齐GPT-3.5,你们强调它对运行的硬件要求变低了,它具体变得有多低?

李大海:这是相对我们8B的模型来说。我们的v2.5、v2.6都是一个8B组合大小的多模态模型,我们现在先发了一个4B的,然后会基于这个4B的再把多模态能力放上去,这样的话它(硬件)的多模态能力就可以更强。

界面新闻:它现在可以直接跑在哪些我们之前想象不到的硬件产品上?

李大海:其实也还好,比如说PC,算力比较充裕的智能汽车,这些都可以跑的。当然还有机器人,机器人的芯片(算力)也是比较大的。

界面新闻:AI PC、AI手机、机器人和汽车,算是你目前比较明确的硬件落地方向。

李大海:对。

界面新闻:这些厂商目前是都有在接触吗?

李大海:都有,而且很多时候是别人找上门来。

界面新闻:他们找上门来,最想要验证你们的什么能力?

李大海:他们最想要的还是希望能够跟通过合作,对他们的产品产生增量价值。

界面新闻:这种接触的过程当中,有可能会卡在哪个环节上?

李大海:其实不存在卡,只不过端侧比起API的落地肯定是流程要更长。

我觉得是客观情况,因为你要部署到终端上,就像一个软件一样,比如跟对应的GPU芯片的整合,也是一个比较重要的工作,所以相对来说它的集成难度会更大,这个方面会花更多的精力去推进。

界面新闻:所以更多是技术和产品怎么做结合这种问题。

李大海:其实是两个层面的问题,一个是技术层面,要保证能够更好的端侧模型在终端硬件上用起来;一个效果层面,要能够很好地支撑这个业务。

界面新闻:硬件厂商和模型厂商之间要做到特别的协同,很考验合作的密切程度,相较于硬件厂商自己做一个大模型那种协同程度肯定不一样。上次聊的时候,你说这可能是你们要攻坚的一个问题。

李大海:这个问题的答案其实很简单。如果一个厂商把所有工作全做了,这样协同性更好,但是真的能够做到这样的厂商,其实很少。比如说比亚迪,连电池都是自己生产,但也还是有很多供应商。

这里面的主要问题是,做端侧模型这件事到底难不难,如果不难,你拿个开源模型改一改,所有人都可以做。但是做端侧模型难度是非常大的,尤其是做好一个知识密度足够高的端侧模型。

所以硬件厂商、芯片厂商,所有终端厂商都可以自己做,大门是开放的。但它的门槛其实很高,就算自己做,很多时候还是需要跟别人合作,需要我们这样的端侧模型产生的价值。

界面新闻:现在可以看出他们对合作有什么顾虑吗?

李大海:客观的情况反而是这个事情太新了,芯片厂商对于端侧模型的支持不够到位,不可能同时支持这么多端侧模型,所以他们(只能)挑选合作伙伴,主要是卡在这里。

界面新闻:怎么个不够到位?

李大海:比如说英伟达,它经过了20年软件方面的建设,现在的软件生态非常丰富,但是他们为端侧芯片、大模型做工作,这件事情近两年才开始。

所以参照它软件生态的丰富、完备和成熟度,这几个方面说实话都还有很大的提升空间。在这种情况下,它也不可能直接把东西开放出来,所有人随便用也没bug,做不到。

这个时候,端侧模型在芯片的落地,其实需要我们跟芯片厂商一起去做很多工作,有些工作其实不是在优化我们的模型,是在优化它的。

界面新闻:硬件厂商找过来的时候,你会感觉到他们有那种害怕落后的情绪吗?

李大海:所有厂商都害怕相对自己的友商落后,但是芯片厂商我觉得大家更多的不是情绪,而是看到这是个机会。自己如果把这件事情做到更好,就有可能在下一代端侧浪潮中抢占先机。

界面新闻:目前已经出现的这些AI PC和AI手机,你觉得符合你对这个品类的设想吗?

李大海:现在肯定是早期阶段,出现的都还比较简单。我觉得苹果在发布会上展示的那些功能,能做到那种程度就相对还可以。

界面新闻:除了苹果之外,国内的这些AI手机,他们下一步要解决的关键问题是什么?

李大海:这个阶段我们坦率的讲,手机这一侧苹果已经给大家做了示范,照抄作业就够了。当然厂商们肯定都有自己的想法,也希望有自己的差异点,我们能服务好他们就好。PC这边的话,用户大部分都是职业化用户,怎么把效率这件事做好就可以了。

界面新闻:今年4月,苹果发布了一系列端侧大模型OpenELM,你们研究过吗?

李大海:坦率的讲,他们在早期发的那些模型,对于整个行业的平均水平都还是一个追赶状态。但是他们产品里面的模型会是什么样,我们现在不知道。而且那个模型可能只是它开源出来的研究性项目,还不能拿来作为评价模型。

界面新闻:从你们自己业务角度来看,iPhone 16在国内用不到OpenAI或者谷歌的模型,会使海内外用户体验差别很大吗?

李大海:肯定会有差异。

界面新闻:从用户体验上来说,这会是个问题吗?

李大海:不会。中国厂商的落地能力很强的,而且在模型能力上来讲,我们一定比苹果好,对这点我们很有信心。

界面新闻:为什么觉得一定会比它好?

李大海:因为我们是专门做模型的,苹果毕竟是一个终端厂商,它的模型是今年才开始追赶,我不认为他们能够这么快赶上我们。

比如微软的Phi系列模型,谷歌的Gemma,我们都是有来有回的,是可比的。在这种情况下,我们作为tier1的端侧模型厂商,不太相信苹果从纯技术能力方面上来就比我们强,这个不可能。但是他们强的地方是把技术跟自己的用户需求结合在一起,这个能力确实是很值得学习。

界面新闻:技术上它落后的那部分是什么?

李大海:知识密度。

界面新闻:之前朱啸虎说苹果跟OpenAI的合作对后者很不利好,因为它拿不到用户,随时可能被替代,你们在跟硬件厂商的合作中有类似的担忧吗?

李大海:这个阶段我觉得看定位,当你服务一个旧场景的时候,其实你不应该有期待,因为这是人家的场景。

这是商业模式的问题。既然你是ToB(企业)服务用户,你为什么认为通过这个场景能够把别人的用户数据拿过来。我觉得不make sense,没有商业逻辑了。如果能拿出来(用户数据),我就免费服务你,但是哪个客户会这样做?这本身就要有合理的预期。

你是ToB你就应该守好ToB的本分,服务好你的客户,而不是去跟客户去争抢利益和价值,这是比较基本的一个逻辑。真的想要更好的数据,还是应该去做自己的C端产品,这两个逻辑应该分开。

2、大模型C端创业很难,创业者不要抱太高期望

界面新闻:端侧模型或者说小模型确实变成一个趋势了,但这件事你们其实一直很坚持。回头看OpenAI发布GPT-4o mini的时候,这个举动对你们有特别的意义吗?

李大海:我觉得有意义。因为我们从年初就说模型需要变小,然后知识密度很重要,但是这个行业里面,大家的认知总是需要一个逐渐对齐的过程。我们看到更多的厂商也在往这个方向促进,进一步证明我们的技术前瞻性是好的。

压力的方面,这个事情会让我们觉得竞争永远是存在的。如果走到某个领域,环顾四周发现没有竞争对手,可能反而会让我觉得比较慌。

界面新闻:现在应该怎么总结你们和OpenAI做小模型之间的核心技术路线差异?

李大海:其实很多技术路线的差异并不是类似于资本主义跟社会主义这种层面的矛盾。因为大模型还是一个系统工程,我们最重视的是端侧的知识密度。

在这个目标底下,当你有很多技术点可以选择的时候,最终我们的取舍标准是它是不是有助于知识密度。

比如说在云端,GPT-4o mini一定是选择了MoE(Mixture of Experts,混合专家模型)的逻辑来做,但是我们非常清晰地知道MoE不适合端侧,因为虽然GPT-4o mini可能激活只用了10B、20B(注:数据不确定,来自行业传闻)或者甚至更小,但是它的整个模型应该也是100B以上。

我在端侧放一个100B的MoE就不是一件特别可行的事情。但是反过来,我们用稀疏化这种方式,有一个很重要的价值,我的模型大小是可以全尺寸的,模型的智能水平上限是由单个Expert大小决定,这是一个 *** 效应的问题。

所以通过这种方式,我们能够在端侧更大程度保证模型的智能水平上限,同时也能达到稀疏化的效果。

界面新闻:从落地的效果来看这种差异有多大?

李大海:差别很大,如果我要用MoE的话,端侧每一个Expert就会变得更小,整体的智能水平就会受到更大限制。

界面新闻:一个比较下意识的问题是,OpenAI可以用GPT-4o mini这种形式来跟你们去做产品竞争吗?

李大海:我觉得肯定不同。端侧模型本身不是跟云端模型竞争的,(我们)肯定还是做好端侧模型该做好的事情。

端侧要做好的事情是什么?终端上要做好感知,做好实时的反应。总结就是三位一体,灵敏的感知,合理的决策,和敏捷的行动。端侧模型把这三件事情做好,然后它能服务什么样的产品,做好什么样的用户价值,把这两个东西对上就成。

界面新闻:B端之外,你们目前在C端的规划是什么?其实还一直没有发过C端的产品。

李大海:我们会有一些C端(用户端)的尝试,但我们内部有一个比较合理的预期,就是相信基于大模型去寻找新的C端场景,这件事情至少需要两年。

因为就像移动互联网,它是一个客观规律,所以我们在不断做一些尝试,但是不会对这个事情产生一个马上要怎样的预期。

界面新闻:确实好像大模型给B端带来的这种注意力或者影响,讨论得已经比较多了,C端带来的核心变量还是挺模糊的。

李大海:我觉得这个模糊是一个客观的历史发展规律,这是个行业问题。在整个行业里面,大模型ToC端比较确定性的就是AI搜索,其他都还在探索过程中,而且AI搜索要真的革传统搜索的命也没有那么快,还需要进一步的探索和时间。

界面新闻:进一步探索到什么阶段,它会是一个确定性比较高、会爆发的那种产品?

李大海:这是很难预测的,如果你能预测清楚的话,现在就可以自己把这个事情做好。

总的来说这个探索还是在于用户的需求。其实在移动互联网发展十年以后,很多能够不用大模型的用户需求,都已经被所有厂商探索过一遍了,所以现在是要以大模型带来的变化为增量去做新的场景,本身困难度就很高。

所以一定是要花时间去探索,通过大模型这个变量能够带来的新机会,而不是一个传统互联网就存在的机会。如果传统互联网就存在机会,其实不需要大模型,所以大模型一定要成为这里边的核心变量。这就是我们说的“AI原生”这回事儿。

界面新闻:这里面可能出现的变量,是相比于云端大模型,端侧大模型有可能实现得更好吗?

李大海:我觉得一定是有的。因为端侧模型随时随地的可靠性,还有隐私,只要某一个产品把这两个优势发挥到极致,一定是云端模型达不到的。

但是端侧模型本身已经有一定的限制了,就是落地方向的条件限制,比如说它一定是某个硬件产品。

界面新闻:你之前说过,大模型在C端的机会未来两三年未必就能看到,但是可能会出现大家觉得某个产品非常有潜力的这么一个共识。我的疑问是,这对创业公司来说难道不是机会更小、更危险吗?因为大厂有更充分的时间来准备这个事情。

李大海:对于小公司来说,C端的应用真的要能发展起来,确实是要追求非共识。它就像竹子一样,前期的时候在底下发芽,可能需要花三年的时间,就一直只看到它的竹笋。但等它忽然之间能够冒起来的时候,底下根系已经很大了,这样才能真正成为一片竹林里面的竹子。

反过来,如果一开始你就很容易长起来,很快被一个大厂注意到,大厂很快能够去复制,我觉得这不是创业公司的机会。

所以创业公司的机会其实在这个阶段就应该看准了,然后不断尝试。可能不会很快出结果,但等你真要出结果的时候,别人不可能很快赶上,这才是你的机会。

说实话挺难的,所以我觉得大家C端创业的时候,不要抱特别高的(期望)。

3、端侧大模型没必要全知全能,本科生就够用了

界面新闻:在商业化这边,你们之前提到一些落地场景,是金融办公政务这些垂直领域,但这也是很多通用大模型的目标领域,你们做的事情有什么不一样?

李大海:我说的也是我自己的思考。我们公司也是因为AGI(通用人工智能)的远景目标才聚在一起,现在大语言模型技术上的通用性,也是我们面向AGI的追求。

但是我现在在反思,技术的通用性跟业务的确定性这两件事情是不冲突的。就是我们在做大模型的时候,技术的通用性要不断追求,但我往下做业务落地的时候,一定要追求用户价值的确定性,而用户价值的确定性在具体的场景下不一定那么通用。

举个例子,我们在法律这个领域把它抽象完以后,最后拆出来80个场景,我们在这80个场景底下一定要做到足够好。但我真正上线的时候,它在这80个场景之外其他领域的能力是不是足够强,至少在这个产品里面是不在乎的。

就是我的基座模型通用性足够好,但是在这个场景底下我要关注这个场景本身的价值。所以基于刚刚说的逻辑,最后如果大家都去比通用模型,只关注这件事情,可能就会忽视掉具体场景里面的确定性。

界面新闻:有一个总结性的问题,大家觉得云端通用大模型是资金、人才、算力的游戏,在端侧模型里这些要素有什么变化吗?

李大海:任何一个业务最终都应该是商业效率的比拼,大语言模型没有离开这个规律。只不过早期的时候,大家判断你有足够多的卡,足够多的人和足够多的钱,你就可以一直留在牌桌上,背后是因为大家对远期有非常巨大的商业回报预期,才让这个事情变得正当合理。

但是大家的耐心是有限的。今天很多人来问我的问题,都是现在到底有什么产品可以落地,怎么还没有看到。所以包括资本在内的大环境,对商业闭环的预期没有那么久,说等到5年以后、10年以后——没有人能等到这个时候。

所以不管是端侧模型还是云端模型,都需要尽快把闭环至少先做起来,让大家看到预期通路是通的,这是最重要的事情。

我觉得在这一点上端侧跟云端没有区别,只不过大家要形成闭环的路径不一样而已。

界面新闻:你之前决定加入面壁的时候,问了面壁每个人相不相信AGI这个问题,但现实就是AGI进程在不断经历坎坷,技术路径也出现很大的不确定性。你个人有对AGI产生过动摇吗?

李大海:Never,从来没有。我问大家的时候,我的预期也是7到10年。

我们真正做技术的同学,对这个事情还是有合理预期的,我们没有觉得这个事情是下一年,下一刻,从来没有这样觉得过。

包括我们现在推动端侧往前走,端侧的GPT-4时刻是什么?是一个能够跟环境自主互动的机器人。我也不觉得我们明年、后年、三年以后,就能把这个机器人做出来。

我觉得我们未来皇冠上的明珠就是机器人,它能够遵守阿西莫夫的机器人三大定律(科幻作家艾萨克·阿西莫夫在其机器人和基地系列小说中提出的虚构概念,这些定律旨在确保机器人的安全和人类的利益),能够去理解环境,真正帮助人类做难做的事情,这才是我觉得未来每个人都一定会买的、人均两个机器人的这种产品,但它是明年能做出来的吗?

界面新闻:但在技术现实上,国内通用大模型都在追赶对齐GPT-4,这种情况下大模型的技术差异好像在慢慢被磨平,而端侧模型还在缓慢追赶GPT-4,那它的机会到底是什么?

李大海:我觉得是一个很好的问题。我刚刚说的的核心点是,端侧模型不是在跟云端模型竞争,而是一个协同的关系,云端模型要完成的工作是无所不能,全知全能,相当于要培养一个全科博士,要懂医学、数学、化学、社会心理学等等。

但终端上的模型是要做什么?是把它培养成一个大学本科毕业生,让它能非常机敏在这个环境落地,执行人的指令。因为只要成为一个本科生,它就能去刷盘子,洗碗,带孩子,给你提供情绪价值,足够了。

然后当你有更高需求的时候,它也可以寻求云端的帮助。所以终端模型为什么要成为全知全能的人?可以这样做,但是成本太高,没有必要。

界⾯新闻:你之前说⾯壁可能在2026年年底之前能达到GPT-4⽔平。

李⼤海:GPT-4⽔平就是⼀个本科⽣毕业⽣的⽔平。

界⾯新闻:那可能是个多⼤参数的模型?

李⼤海:这个可能是个10~20B的模型,取决于终端能够提供更⼤的芯⽚。

我觉得在云端GPT-4只是起步,⼤家还是希望能有更好的模型,做更多的事,在终端上我们能做到GPT-4o这样⽔平的模型,其实就可以做⾮常多基于常识的推理,也就能够做很多机器⼈该做的事情。

界⾯新闻:我理解⽐如那个时候到GPT-4⽔平,能落在硬件产品上,⼤家应该都会去⽤了,没有太大问题。那这个期间硬件厂商和芯⽚⼚商也要做相应的准备,你的视线⾥这两个进程是基本上对⻬的吗?

李⼤海:我们当时提到2026年这个⽬标,就是把芯⽚⼚商的进程也“卡”进去了,如果芯⽚⼚商没有这个进步,还是现在这个状态,我们做不到,因为20B的端侧模型在现在的芯⽚上跑不起来。还是需要三个指标都往上扩,算⼒更强,功耗更低,内存更⼤。

界面新闻:之前“斯坦福团队抄袭”事件发生,你当下看到那个事情的时候,你个人有什么情绪吗?(注:今年5月末,一个来自斯坦福大学的AI团队对其MiniCPM-Llama3-V 2.5进行了套壳抄袭的行为)

李大海:我首先就觉得不可思议,居然会在开源社区会发生这种事情。

其次我第二个反应是,我们社区里面的用户基本上之一时间发现了这件事情,就开始自己单枪匹马去跟社区argue(争论),对方做了很多的事情来掩盖,就越描越黑,然后他就来告诉我们:那个人套你们的模型,你们去查一下。

我们会觉得特别的感动,开源这件事情真的是叫做“陷入了人民战争的汪洋大海”。我们觉得开源还是特别有价值的事情。

界面新闻:这件事情发生之后给面壁有带来什么积极影响吗?

李大海:相当积极。坦率的讲,但是现在各家公司发了模型以后有非常多的口径,每个人的口径都不一样,非常多不同的维度。

但是当一个其他团队愿意拿你的模型来套壳说是自己的时候,我觉得这是一种非常强的说服力,说明我们的模型确实是有可取之处,有很大的领先性才会发生这样的事情,这对我们来说很有帮助。

界面新闻:最近行业里有关大模型创业公司的判断都是偏负面的,对你们有什么影响吗?

李大海:市场情绪就是比较重,我觉得都是正常现象,我们把自己手头的事情做好就行。