您的位置:首页 >> 行业研究 >> 文章正文

通信行业周报:算力芯片持续更新,AI用户量初具规模

加入日期:2024-6-10 14:20:01

  顶尖财经网(www.58188.com)2024-6-10 14:20:01讯:

(以下内容从开源证券《通信行业周报:算力芯片持续更新,AI用户量初具规模》研报附件原文摘录)
英伟达和AMD公布AI芯片路线图,全面进入液冷时代
英伟达公布未来技术路线图,算力边际成本不断下降。2024年6月3日,英伟达在COMPUTEX2024上发布GPU、CPU、NVlink、NIC网卡以及交换芯片的技术路线。Blackwell Ultra系列GPU将于2025年发布,搭载八个HBM3e内存堆栈;下一代Rubin GPU预计将在2026年推出,搭载8个HBM4内存堆栈,配对的新一代Arm数据中心CPU Vara也将问世;RubinUltra系列将于2027年推出,将搭载12个HBM4内存堆栈,拥有更多内存容量,GPU加速效应显著,单卡算力性能持续提升,算力边际成本不断下降,以支撑AI大模型参数持续增长。
AMD公布全新云端AI加速芯片路线图,今年将推出全新InstinctMI325X。2024年6月3日,AND在COMPUTEX2024上公布全新云端AI加速芯片路线图,将会在今年推出全新的AI加速芯片Instinct MI325X,2025年推出MI350,2026年推出MI400。其中,MI325X将延续CDNA3构架,采用HBM3e高带宽内存,容量大幅提升至288GB,内存带宽也将提升至6TB/s,相较竞品英伟达H200将有1.3倍以上的提升,更具性价比,预计MI325X将于今年第四季度开始供货,其他方面规格基本与MI300X保持一致;新一代MI350系列将采用3nm制程,基于全新的构架,集成288GBHBM3e内存,并支持FP4/FP6数据格式,推理运算速度较现有MI300系列芯片快35倍。
算力芯片功耗持续增长,全面进入液冷时代。单个英伟达B200八卡风冷DGX服务器功耗接近15KW,散热模组体积较大,空间利用率较差,相比之下液冷MGX服务器算力密度更高,液冷散热性价比优势显著;同时,据供应链信息透露,AMD MI350将同样切换至液冷散热时代。
AI用户初具规模,ChatGPT宕机造成竞品访问量激增
“一鲸落而万物生”,ChatGPT用户的庞大AI需求致使竞品系统瘫痪。6月4日,OpenAI旗下ChatGPT(包括网站、App和桌面应用)出现系统故障,导致全球大量用户无法正常使用,持续长达近8个小时。ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分,此次宕机期间,用户纷纷转向替代工具,包括Anthropic公司的Claude、谷歌Gemini和Perplexity等,据软件公司QRFY分析,谷歌Gemini的日均搜索量激增近60%,显示出用户对ChatGPT替代品的蓬勃需求。然而,在流量激增之下,上述三大AI平台也遭遇了系统瘫痪,Perplexity网站显示因为接收到太多请求,显示超出服务容量。我们认为,此次事件映射出使用AI模型对于某些用户已为刚性需求,且AI用户量已初具规模,短时间内大量的增量需求已超出竞品的基础设施容量上限。当下算力基础设施建设仍存在结构性缺口,随着用户对于AI的需求持续增长,算力基础设施建设或将长期持续。
Aspeed5月营收同比大幅增长,服务器需求或迎来复苏
全球服务器管理芯片供应商龙头Aspeed2024年5月实现营收4.35亿新台币,同比增长92.90%,环比增长4.67%,月度营收规模已接近2022年平均水平。我们认为,公司营收大幅改善主要是AI服务器的强劲需求,导致管理芯片单个服务器的价值量上升,以及传统服务器需求逐渐复苏所致。
风险提示:5G建设不及预期、AI发展不及预期、智能制造发展不及预期、中美贸易摩擦等。





编辑: 来源: