出品 | 搜狐科技

张亚勤李开复对谈:Scaling Law还没有达到顶峰,AGI存在失控风险

作者 | 梁昌均

6月14日,在2024北京智源大会上,智源研究院理事长黄铁军主持了一场炉边谈话,清华大学智能产业研究院院长张亚勤和零一万物CEO李开复围绕大模型的发展、应用和AGI进行了探讨。

张亚勤和李开复均认为,Scaling Law(规模法则)是大模型发展重要的要素,且还没有达到顶峰。“它至少在未来五年内还是大的方向。”张亚勤判断到。

对于大模型应用,李开复认为,中国短期在C端有机会,国外两者都有机会。“C端应用一定是按部就班,之一个阶段是生产力工具,第二个阶段可能是娱乐、音乐、游戏,第三个阶段可能会是搜索,下一个阶段会是电商、社交、短视频等。”

他认为,大模型刚开始要能够赚钱,能够解决问题,所以是工具,越往后难度越高,而且往往是先堆积用户,再找商业模式,所以成本一定要压低。

此外,李开复认为,大模型To B应用面临不少挑战。比如大公司、传统公司不敢采取这种颠覆式的技术,企业推进过程面临阻力,国内还没有认识到软件的价值,不愿意为软件付费,而且竞价到都没有利润。

张亚勤则认为,信息智能、具身智能、生物智能的应用速度不一样,具身智能B端更快,生物智能C端会更快。“信息智能在5年左右可以实现,具身智能乐观的话需要10年,生物智能还需要15-20年。”

对于最近业内火热的具身智能,李开复表示未来有很大的想象空间,但称“我们做投资的肯定不能现在去投资一个10年以后才能够发生的事情”。他认为,大模型非常适合虚拟世界,一旦接到物理世界,就会有各种的问题,难度和成本就会非常高。

对于AGI的发展,张亚勤给出的定义是,要有巨大的能力,大部分任务要比人类强,同时要通用,并能不断升级、不断学习、不断进化。

“我不认为沿着 Scaling Law可以产生意识,我觉得还是把AI作为人类工具的延伸,而不是另外一种物种。”他和李开复均表示,AGI存在失控风险,关键是要行动起来。

以下为对谈精编:

黄铁军:大模型到底做对了什么能这么成功?还有哪些欠缺的地方需要后续继续发展?

李开复:大模型是AI有史以来更大的一个革命,特别重要的就是Scaling Law。这一点已经被验证,而且肯定还没有达到一个顶峰,还在推进中。第二,我觉得大模型本身的智慧来自接近无损的压缩,用压缩的理念去评估,这样在炼丹的过程中,把它变得科学和数学。

大模型可能面临的挑战就是,仅用更多的算力来把它往前推动是主要方向的话,会继续看到它的快速上升,但也会导致只有那些特有很多GPU的公司或国家能胜出。所以我还是认为,同样重要的还有工程的问题,不是盲目地丢算力,达到更好的结果。

张亚勤:大模型的发展得益于规模效应,大量的数据算力+Transformer,Scaling Law至少在未来五年内还是大的方向。第二,文本、语音、图像、视频,或者是自动驾驶,这些训练、学习、生成的核心都是token。第三是通用性,不仅是文本的多模态,还可以是物理世界的具身智能,生物世界的生物智能。

问题是效率太低,还需要大幅度提高效率,这样的话才会有商业模式。第二是大模型还没有真正的理解物理世界,推理能力比较差。第三个欠缺的地方是边界问题,边界效应要解决。

黄铁军:国内大模型的应用落地机会怎么看?更大的场景在哪里?

李开复:在中国ToC短期更有机会,国外两者都有机会。新的技术,新的平台带来新的应用,这是巨大的机会。C端应用一定是按部就班,之一个阶段是生产力工具,第二个阶段可能会是娱乐、音乐、游戏。第三个阶段可能会是搜索,下一个阶段会是电商、社交、短视频等。

刚开始要能够赚钱,要能够解决问题,所以是工具,越往后难度越高,而且往往是先堆积用户,再找商业模式,所以成本一定要压低。

最近我们提出了一个新的想法,叫做TCPMF,就是考虑市场的时候,还要把技术的需求跟难度,以及成本考虑进去。它难度高,回报也高,机会很大。我不相信技术可以永久的领先,有很多巨头会有更多的 *** 来超越。但验证出TCPMF来,就把握着一定的时间窗口。

大模型To B应该带来更大的价值,而且应该更快实现,但很可惜面临几个巨大的挑战。一个就是大公司,传统公司看不懂、不敢采取这种颠覆式的技术;第二,企业降本不是给企业创造价值,简单说就是替代人类的工作,大公司很多高管或者中层管理不愿意做,CEO有时很想做,但会面临阻力。

还有一个是在中国比较严重的问题,很多公司没有认识到软件的价值,不愿意为软件付费,而且有这么多大模型公司来竞标,竞价到都没有利润。我们在AI1.0时代看到的现象,在AI2.0时代又出现了。所以我们只找能赚钱的做,赔钱的就不做。

张亚勤:在应用服务层,先To C后To B,To C马上有产品。目前赚钱最多的还是在B端,是在硬件、芯片、基础设施。

AI分层三个阶段,信息智能、具身智能、生物智能,应用速度不一样,具身智能B端更快,生物智能反过来,C端会更快。整体来讲,To C、To B,开源闭源模型,基础大模型和垂直模型,都会共存。

黄铁军:具身智能热度很高,跟机器人、自动驾驶也相关,哪个会更有机会?

张亚勤:无人驾驶L4+是具身智能之一个更大的应用。无人驾驶本身就是一个特殊机器人,无人驾驶在安全性已经比人类驾驶要高至少10倍,但目前还有些问题。开的安全,但不够熟练,太守规矩了,不会超速,也不会压线。无人驾驶要变成主流,需要是好司机,也需要是老司机,我认为在明年会实现,之一个真正实现在具身智能的AGI无人驾驶。

具身智能到底什么时候能够实现,我比较乐观。信息智能5年左右可以实现,现在文本基本已经实现,视频方面恐怕需要几年。具身智能比较乐观10年,生物智能还需要15-20年。

李开复:创新工厂也投了6家无人驾驶公司,无人驾驶面临一个巨大的机会,终于可以落地了。特斯拉推出的FSD,虽然不是完全大模型,但用了端到端概念,会颠覆无人驾驶的能力,带来新的机会。把大模型放到无人驾驶里,我非常期待,但投资巨大,不见得初创公司能做。

自身智能很重要,但大模型非常适合虚拟世界,很快就可以落地产生价值。一旦要接到物理世界,那就有各种的问题,难度就大非常多倍。大部分创业者如果是希望看到短期的落地产生价值,肯定还是虚拟世界远远容易很多,具身智能肯定也要走很多弯路。

对于人形机器人,我觉得绝大多数的应用并不需要人形机器人,炒菜机器人应该长得像锅,吸尘器要做得像人一样,没有必要。波士顿动力的机器人跳来跳去、翻跟斗,真的有很多应用吗?绝大多数的场景,除了爬楼梯等,真的需要两条腿吗?

我同意具身智能是十年以后的事情,但我们做投资的肯定不能现在去投资一个10年以后才能够发生的事情。

黄铁军:通用人工智能怎么理解?大家讲GAI是说具有通用性的人工智能,还有AGI,它要超越人类,要有独立意识,怎么定义?

李开复:AGI的定义因人而异,定义成为能做人所有做的一切的事情,我今天没有办法做任何预测,因为有太多未知的东西还没有被解决。

我个人会说,只要AI一年比一年更聪明,它能做的事情,也许是人从来都不能做的,不见得人做的每件事都要做。人做的是1万件事情,AI能做9000件或者1000件做得比人好,这样也挺好,要给人留点空间。

张亚勤:我刚才讲的不包括意识或情感。我觉得AGI的定义,之一点就是要有巨大的能力,大部分的任务方面要比人类强;第二点是通用,第三点就是能不断升级、不断学习、不断进化。

我不认为现在沿着 Scaling Law可以产生意识,我也不认为我们应该在这个方面做研究,还是要解决真正的问题,把人工智能作为我们的工具作为延伸,而不是另外一种物种。

黄铁军:OpenAI发生的事情,伊利亚和奥特曼就是在争论AI做出来了面临着失控的巨大风险,你们认为这种风险存在还是不存在?

李开复:我觉得存在,它的发生的概率不是很高,但是一发生是个毁灭性的事情,如果我们越Reward model让AI发展的话,发生的可能性就会增高。当然,今天我们的训练 *** 很准确,似乎还不至于,所以短期担忧的是坏人用它去做坏事。

张亚勤:AGI实现之后,比人更聪明,会掌控人类,会有自我意识,我没那么担心,我担心的是会失控。大模型到了物理世界以后,机器人比人要多得多,如果用到基础物理设施等,失控的风险比较大,所以现在开始应该把这些东西要考虑进去。

但我是乐观的,人类一直有两种智慧,一个是发明技术的智慧,一个是引导技术走向的智慧。我觉得我们可以达到一个平衡,但是现在要采取行动。