发布时间:2024-12-05 已有: 位 网友关注
本周三,亚马逊举行re:Invent年度大会,并发布一系列重磅产品和计划,包括全球最大AI超算、新一代AI芯片和模型、训练苹果AI......
而其中最值得关注的是亚马逊对未来发展的规划,AWS押注的是“生成式AI产品化”,将产品和服务作为发展的核心,构建更易于使用、可访问的平台,降低用户群体使用AI的门槛。
AWS认为,未来生成性AI将更为普遍,不仅仅是一个附加功能,而是成为计算基础设施的一部分。而产品化的必要途径是,大模型重要性会逐渐降低,不同用途的模型对用户来说差别不大。
大模型绝不会一家独大,重要性会逐渐降低
在传统的AI开发中,大模型可以说是核心,需要精心设计和训练以解决特定问题。但AWS认为,在生成性AI的产品化过程中,大模型将不再是唯一的焦点。
过去两年,亚马逊一直依赖Anthropic的人工智能和Nvidia的硬件来推动其云销售增长,但在re:Invent大会上亚马逊CEOAndy Jassy表示:
我认为几乎所有人最终都会使用Anthropic的Claude模型,但他们也在使用Llama模型,也在使用Mistral模型,也在使用我们自己的一些模型......
这与亚马逊AWS CEO Matt Garman的观点类似,他此前表示AI竞赛没有终点,未来AI大模型绝不会一家独大。
有分析表示,AWS的赌注是,生成式AI产品化的一个必要组成部分是大模型重要性逐渐降低,这将降低用户进入生成性AI领域的门槛。换句话说,AI将足够重要以至于最终根本不会特别。
Garman在No Priors播客节目中也表达出,未来生成性AI将成为“必需品”:
从技术的发展,生成性AI将不仅仅是一个附加功能,而是成为计算基础设施的一部分,就像存储、计算和数据库一样,是构建应用程序时需要考虑的基本要素。在应用程序中,如果需要进行大量的数据处理和决策,那么生成性AI将是一个关键的组成部分。这表明AI的推理能力将被广泛地集成到各种应用程序中,以满足这些需求。产品和服务才是核心,降本方面取得进展
当大模型重要性降低,AWS聚焦打造AI产品和服务。AWS正在努力将生成性AI集成到其平台中,开发者在构建应用程序时,可以利用AWS提供的AI服务,而不需要从头开始构建复杂的AI系统。
谈到公司发展的重点,Garman表示:
亚马逊现在已经拥有一个Bedrock平台、训练芯片和推理芯片,以及我们提供的一系列其他功能和模型,既有专有的也有开源的,还有开放权重的。企业喜欢在这个平台上构建,我们看到企业真的倾向于并希望在这一领域进行构建,因为这给了他们很多自主权,而这正是他们在构建应用时想要的。
AWS们的工作是如何让用户以紧密耦合的方式越来越容易地构建AI应用,从而更容易使用不同的组建,更容易快速创新,更容易从AWS数据湖中构建专有数据。坦白地说,如果你没有有趣的数据,大多数这些生成AI系统都不会非常有用。
在使用生成性AI时,开发者需要在成本和延迟能力等方面做出权衡。大模型可能提供更复杂的功能,但可能成本更高,延迟更大;而小型模型可能更经济,响应更快,但功能可能有限。而通过提供多种模型选项,AWS允许用户根据特定需求选择最合适的模型,而不是依赖于单一的模型。
在降低模型和芯片成本方面,亚马逊取得一定进展,Jassy表示,亚马逊最先进的新模型基本上与Anthropic最新模型性能一样强大,而且值得注意的是,它的价格比这些模型低三分之一以上。