亚马逊云科技CEO马特・加曼(图片来源:亚马逊)

亚马逊在大模型上还有更大野心

界面新闻记者 | 肖芳

界面新闻编辑 | 文姝琪

在2024 re:Invent全球大会上,亚马逊一口气发布了6款大模型。

这些大模型都依托于其发布的推出新一代基础模型Amazon Nova,并集成在Amazon Bedrock中提供服务。

其中,Amazon Nova系列基础模型包括Micro、Lite、Pro、Premier四款:Amazon Nova Micro为纯文本生成模型,每秒可输出210个token;Amazon Nova Lite和Amazon Nova Pro为多模态模型,分别对标OpenAI的GPT-4o mini和GPT-4o,且多项能力在基准测试中表现更优;Amazon Nova Premier同样是多模态大模型,专为复杂推理任务而生。

目前,Amazon Nova系列Micro、Lite、Pro模型已全部正式可用,Amazon Nova Premier预计将在2025年之一季度可用。

同时,亚马逊还推出了两个全新模型。Amazon Nova Canvas是图像生成模型,性能上优于OpenAI的DALL-E 3和Stable Diffusion,还内置的安全控制措施确保能够追溯每张图像的来源;Amazon Nova Reel是视频生成模型,支持生成六秒的视频,未来几个月将支持最长为两分钟的视频生成。

亚马逊云科技新任CEO马特・加曼(Matt Garman)在演讲中表示,大模型是一个创新速度极快的领域,几乎每周都会有新版本、新功能、新模型、新更新以及新的成本变化。尽管有这么多创新和众多模型,可实际上要找到一个完全契合自身用例的完美模型依旧十分困难。

正是基于这样的市场洞察,亚马逊云科技试图打造一个专业知识与延迟、成本等因素进行合理组合的大模型服务。其最近两年在大模型上的动作也均以此为出发点。

Amazon Bedrock去年的使用量已增长5倍

面对市场对大模型的需求痛点,亚马逊在2023年4月推出一项完全托管的服务Amazon Bedrock,来满足市场需要考量模型专业能力、成本等因素的需求。

通过API *** ,Amazon Bedrock提供来自AI21 Labs、Anthropic、Cohere、Meta、Mistral AI、Stability AI 以及亚马逊自身等多家公司的基础模型。这些基础模型涵盖了文本生成、图像生成等多种类型,为开发者提供了丰富的选择,以满足不同的应用场景和需求。

马特・加曼(Matt Garman)透露,每天都有数以万计的客户在生产应用中使用Amazon Bedrock,其使用量在去年就增长了近5倍。

快速增长的使用量证明了市场对于Amazon Bedrock这种服务模式的认可。背后的原因也不难理解,大模型在快速迭代升级,很多企业并非是想使用一款基础模型,而是针对不用需求选择更合适的模型。Amazon Bedrock集成了越来越多模型,其带来的便捷性不仅吸引了很多企业客户使用,还吸引了Salesforce、SAP和Workday等独立软件供应商(ISV)集成到他们自己的系统上,为下游客户提供生成式AI服务。

Amazon Nova系列模型也是在平衡专业能力、成本和延迟等多方面基础之上推出的。同时,亚马逊还在Amazon Bedrock中推出模型蒸馏功能,帮助企业进一步降低大模型的使用成本。根据马特・加曼(Matt Garman)在演讲中透露的信息,经过蒸馏的模型相比被蒸馏的模型,运行速度能够快500%,成本还能降低75%,而且Amazon Bedrock可一站式完成所有相关工作。

亚马逊自研的Nova系列模型还能够与蒸馏功能整合在一起,把大模型的智能“转移”到更小的模型中,这些小模型成本效益更高,延迟更低。

亚马逊在2024 re:Invent全球大会上发布的6款模型并不是全部。根据马特・加曼(Matt Garman)的介绍,亚马逊还将在2025年推出语音到语音模型以及多模态到多模态模型。

其中,语音到语音模型计划在2025年之一季度推出,该模型旨在通过理解自然语言的流式语音输入,解释语言和非语言信号(如语调和节奏),提供流畅的类人交互,彻底改变对话式AI应用,确保低延迟的双向交流。

多模态到多模态模型是亚马逊在大模型上的一个全新尝试,能够接受文本、图像、音频和视频作为输入,并以任意模态生成输出。该模型预计在2025年中旬推出,将简化应用开发,使同一模型能够执行多种任务,如内容模态转换、内容编辑,以及驱动能够理解和生成所有模态的AI *** 。

数十万枚自研芯片落地Anthropic,亚马逊要向微软+OpenAI发起新挑战

在2024 re:Invent全球大会上,AI初创公司Anthropic的联合创始人兼首席计算官Tom Brown宣布了“雷尼尔计划”(Project Rainier),该计划也是一个有战略意义的布局。

“雷尼尔计划”的核心内容是,Anthropic未来将使用一个拥有数十万枚亚马逊自研芯片的算力集群。其芯片数量将是Anthropic现有算力集群的五倍以上。

Anthropic是亚马逊投资的AI初创公司。2023年9月,亚马逊向Anthropic投资40亿美元。今年11月,亚马逊再次向Anthropic追加40亿美元投资。这是亚马逊近30年更大的一笔对外投资。投资之后,Anthropic必须使用亚马逊AWS的云计算服务,其推出的Claude系列模型也已集成在Amazon Bedrock上。

从模型能力上看,Claude系列模型是目前市面上几乎少数可以和OpenAI旗下GPT-4对标的模型。如果“雷尼尔计划”能够顺利落地,Anthropic将用上全球规模更大的AI算力集群之一,这对后续模型能力的进一步提升也有积极的帮助。

此举背后,我们可以看到亚马逊云在大模型上更大的野心。一方面,亚马逊云科技联合Anthropic对标微软+OpenAI的模式,和其争夺更多有大模型和云计算使用需求的客户。

此前,微软CEO萨提亚·纳德拉在 *** 财报会中曾表示,超过1.8万家公司正在使用微软的Azure OpenAI服务,这里面有很多是Azure的新客户。并且,其云计算产品Azure的收入增长,也有不少是来自微软提供的GPT-4入口。

这意味着OpenAI走红后,其为微软的云服务Azure带来了更多新增客户,亚马逊也可以复制这种已经被验证过的打法。

另一方面,亚马逊通过投资的方式将自研芯片和Anthropic深度绑定,既能够降低自己的算力成本,也能减少其对英伟达、英特尔等芯片供应商的依赖。节省下来的算力成本可以让亚马逊的云计算服务以及生成式AI服务在价格上更有竞争力。

据Synergy Research Group最新公布的数据估算,2024 年第三季度,亚马逊在全球云基础设施市场的市场份额达到31%,领先于微软 Azure平台的 20%和谷歌云的11%。

显然,亚马逊云科技并未满足于此,还在试图通过AI大模型带来的增量寻求更多的市场份额。