当前位置:   article > 正文

AI大模型快速发展,亚马逊云科技中国峰会分享客户实用案例_企业ai大模型案例分享

企业ai大模型案例分享

近日,一年一度的亚马逊云科技中国峰会在上海如期召开。在本次峰会上可以切实地感受到亚马逊云科技的Day one理念,并且也对AI创新做了详细解读。

 

“AI创新”使算力需求井喷、运维复杂性增加

随着AI大模型的发展,大模型应用规模呈爆发式增长,加速了未来计算时代的来临,引发了新的生产力革命,但同时也导致算力供不应求,在这个过程中,算力直接反映了数据处理能力的强弱,用户不仅需要更高性价比的硬件解决方案,他们还需要云厂商提供高度弹性化的伸缩。与此同时,巨大算力的增加,使企业云运维成本大大增加,如何降低云运维的复杂性也是企业目前面临的难题。

为了应对弹性算力的需求,亚马逊云科技提供超过600种不同的计算实例,处理器、存储、网络及各种周边服务均可与计算很好地结合,以积木的方式形成丰富的、灵活的计算实例资源,满足多种不同算力要求。

要知道,从存储层面,当数据规模达到PB、EB级别时,数据的存储方式非常重要。用户的数据存储可分为热、温、冷、冻四种类型,每种类型的存储成本和性能不同,都需要平衡。所以,亚马逊云科技提供多达八种的存储级别,包括高性能计算、机器学习和通用计算等,企业根据需要选择最合理的存储级别。

这其中最具有代表性的案例就是《阿凡达》的制作公司Weta Digital,其在开发《阿凡达1》时,他们自建了一个占地10000平方英尺的机房,构建4000台物理服务器和35000个处理器核心。然而,在开发《阿凡达2——水之道》时,他们原有的集群已经无法满足需求。于是,亚马逊云科技为Weta Digital提供了从基础架构算力资源到云上制作堆栈、机器学习堆栈的一系列服务,Weta Digital使用了包括GPU实例和Spot实例在内的多种计算实例以提供强大的伸缩性和优秀的性价比。

然而对于亚马逊云科技来说,仅仅对企业进行多种多样的芯片和高伸缩性的资源供给是远远不够的,亚马逊云科技还为企业提供了Serverless来降低云运维的复杂性。亚马逊云科技在2014年发布Lambda以来,已经相继发布了105多种Serverless新技术,包括解决Java应用冷启动问题的Lambda SnapStart、可视化编辑器Application Composer等。用户可以根据应用的类型来选择不同的弹性和计算颗粒度。

全托管的Serverless使得开发者可以专注于业务开发,而不是基础设施的运维,也让系统能很容易的实现快速伸缩。为此,陈晓建在峰会上特别举了一个Second Dinner打造年度最佳移动游戏《Marvel Snap》的案例。《Marvel Snap》被Second Dinner工程副总裁称为“这是我们有史以来运营过的最顺利、最成功的游戏,正是因为我们选择了亚马逊云科技”。

Second Dinner采用亚马逊云科技的Serverless架构来开发、构建和运行Marvel Snap游戏。整个游戏没有使用任何EC2计算实例或容器,而是由事件驱动架构实现。这种方法不仅帮助用户节省成本、加快应用开发速度,还减少了安全方面的隐患。亚马逊云科技的Serverless后台架构为其提供了完整的功能、安全和资源管理。最终,Marvel Snap在启动时没有出现任何后端错误事件,这在游戏行业是前所未有的。此外,Marvel Snap的开发人员在系统非常早期的测试阶段,就已经通过Serverless实现了每分钟14万请求的压力测试,要知道,这在云主机的时代是无法实现的,而这在亚马逊云科技的帮助下实现了“不可能”。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/2023面试高手/article/detail/365513
推荐阅读
相关标签
  

闽ICP备14008679号