ddj7

开放一周内抢注一空!ChatGPT带火AI算力服务算力霸权时代来了?

发布时间:2023-02-20 09:15:39 文章来源:证券之星   阅读量:12425   
当前位置: 主页 > 财经 > 正文

写诗、编程、聊天互动hellip;hellip;打着AI聊天机器人名头的ChatGPT,集成了多种功能,也一跃成为史上月活用户数增长最快的消费者应用。ChatGPT的爆火,也让人们注意到了AI应用背后庞大的算力需求与挑战。

中科曙光便表示,截止2月12日,曙光智算公司提供用于AI训练与推理计算的试用资源,在开放使用后一周内已被抢注一空。通常情况下,这些计算资源要三个月左右才能被用户注册并使用。目前,曙光智算正协调多个计算中心,提供更多算力资源满足用户需求。

而在上周,浪潮信息也宣布推出AI算力服务产品,基于智算中心的算力基础设施,客户可申请AI算力免费试用。

实际上,以ChatGPT为首的生成式AI开发主要依托于大模型技术,这就离不开算力支撑。而在算力基建中,除了芯片之外,AI服务器、AIDC等专用数据中心建设也同样必不可少。

就在2月13日,北京市宣布,将支持头部企业打造对标ChatGPT的大模型。同日北京昇腾人工智能计算中心正式点亮,并与首批47家企业和科研单位签约。该中心一期算力规模达100P,短期算力规模将达500P,远期将达1000P,可为企业和科研单位等提供AI算力服务。

的确,AI对算力的需求已不能仅仅用快速来形容mdash;mdash;据ChatGPT开发公司OpenAI 研究,2012-2018年,最大的AI训练的算力消耗已增长30万倍,平均每3个多月便翻倍,速度远远超过摩尔定律。

另据《2022-2023 中国人工智能计算力发展评估报告》,2022年我国智能算力规模已达268百亿亿次/秒,超过通用算力规模。预计未来5年,中国智能算力规模年复合增长率将达52.3%。

人工智能算法计算量发展趋势

生成式AI的开发需要基于海量的自然语言或多模态数据集,对拥有巨大参数的超大规模模型进行训练。要成功训练出更大参数、更高精度、更高能力的大模型,不仅需要巨量的高性能AI算力进行支撑,还需要依托精心清洗获得的高质量海量数据集,同时还需要有高效的系统平台来保障长时间的模型训练过程。

华泰证券2月13日报告也指出,以GPT模型为代表的AI大模型训练,需要消耗大量算力资源,随着国产大模型开发陆续进入预训练阶段,算力需求持续释放或将带动算力基础设施产业迎来增长新周期。未来拥有更丰富算力资源的模型开发者,或将能够训练出更优秀的AI模型,算力霸权时代或将开启。

正如上文提到的,算力基础设施产业链主要可以分为三个环节:

算力芯片:GPU采用数量众多的计算单元和超长的流水线,架构更适合进行大吞吐量的AI并行计算,相关厂商包括景嘉微、寒武纪、海光信息、龙芯中科、中国长城等;

服务器:ChatGPT模型训练涉及大量向量及张量运算,AI服务器具备运算效率优势,大模型训练有望带动AI服务器采购需求放量,相关厂商包括浪潮信息、中科曙光等;

数据中心:IDC算力服务是承接AI计算需求的直接形式,随着百度、京东等互联网厂商相继布局ChatGPT类似产品,核心城市IDC算力缺口或将加大,相关厂商有宝信软件等。

声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。

频道精选

667

关于我们 | 广告报价 | 本站动态 | 联系我们 | 版权所有 | 网站地图

同花顺经济网   欢迎广大网友来本网站投稿,网站内容来自于互联网或网友提供

Copyright©2011-   news.httzkg.cn   All Rights Reserved