中国青年报客户端上海7月19日电(中青报·中青网见习记者 贾骥业 记者 朱彩云)“从模型参数规模来看,如果我们把人工智能(AI)和人类智能作比较,把AI大模型做得更大,还会有不少红利。”在今天举行的“2024中国联通合作伙伴大会”主峰会上,上海科学智能研究院院长、复旦大学特聘教授漆远对人工智能的发展作出了上述判断。

专家:将AI模型参数做大仍具有红利,但也面临挑战

在AI大模型中,“Scaling Laws”(规模效应)意味着当参数和数据规模大到一定程度时,大模型的智能表现将出现跃升,也就是“智能涌现”。漆远对比人类大脑和AI模型指出,人脑里的链接是百万亿到千万亿级别,而GPT-4等大模型的参数规模才到万亿级。在他看来,仍然可以通过扩大AI模型的参数规模,以求提高模型的智能表现,“但这仍面临着诸多挑战”。

之一个挑战就是AI的能耗问题。漆远提到,一个GPU(图形处理器,现常用于AI计算)的能耗在几百瓦(W)到数千瓦之间,目前用于训练AI模型的计算矩阵,已经达到了“万卡”(即上万个GPU)。如果继续扩大AI模型的参数规模,达到百万亿、千万亿参数级别的AI模型将面临着巨大的能源挑战,“这对一个城市或一个地区的能量都可能是非常大的消耗”。

此外,从“有用的玩具”到“有用的工具”,AI模型还有很长的路要走。漆远指出,目前的AI模型更擅长快思考,它可以很快地回复,是一个很好的聊天工具,“但真正作为生产力工具,需要慢思考,需要严谨的逻辑推理”。

他认为,要实现这一目标,需要将以深度学习为基础的快思考“黑盒”模型,与慢思考、可以解释逻辑推理过程的“白盒”模型相结合,打造“灰盒”可信大模型,“这可能是将AI模型,从一个非常有意思的聊天工具,变成一个可信、可控、可解释的有用工具的可行路径。”

7月19日,“2024中国联通合作伙伴大会”在上海开幕,上海科学智能研究院院长、复旦大学特聘教授漆远在主峰会上发表专家演讲。中青报·中青网见习记者 贾骥业/摄